“请两位选手思考3分钟的时间。”
很快,3分钟后,主持人将话筒递到了蔡昆手中。
“下面有请请蔡同学回答。”
他红着脸,磕磕绊绊了好久:“很抱歉,这个领域,我并没有深入研究……递归神经网络是具有树状阶层结构且网络节点按其连接顺序对输入信息进行递归的人工神经网络,是深度学习算法之一。”
勉强背诵了一些定义,实在有些糊弄不过去,蔡同学道:“很抱歉,我暂时没有特别好的想法。”
底下传来了一阵嘘声,蔡同学虽然脸红,但还是硬着头皮站在台上。
他抬头看向张远。
就看你能够回答出什么吧。如果什么都回答不出来,你凭什么面试成绩比我高怎么多?
“下边有请张同学回答。”
“我有个问题。”张远举了举手,“hopfield网络我听说过,但什么叫网络稳定性?”
这位提问者笑了笑:“如果网络的某些权值可以收敛至平衡点,即称权值收敛,那么输出也就可以拟合期望的输出,即称系统稳定,因此收敛性是针对变量而言,稳定性是针对系统而言。”
“系统的稳定性得到不到保证,控制系统不稳定,网络的收敛性失去了基础。”
张远琢磨了一下一下,说道:“你的那个研究领域,我也没有深入研究过,只是看过某些论文。不过我有一些简单的想法,你可以听听。”
“……首先是单调性问题,离散时间连续状态的hopfield网络模型中当神经元的激活函数是否为单调函数,或者说是否局部单调。”
“第二是,通过研究能量函数成为凸函数的条件,将hopfield网络的运行看作约束凸优化问题求解,从而尝试着去论证是否有全局惟一极小点的充分条件……”
“凸优化,您说的很正确!凸优化正是我在做的方向,我还有一个问题……”
这一次倒是说到了这位提问者的心坎里,他又提了几个凸优化方面的问题,当场交流起数学来。
最后在主持人的示意下,张远只好说道:“关于凸优化方面的知识,如果有需要的话,可以台后找我探讨,这里就不详细说明了……”
很多东西他只是根据平时的积累,随口胡扯,如果真的能随机应变写出一篇论文,那他也不用上台,直接当“论文上帝”好了。
底下已经传来了一片鼓掌声。
这么短短的一段时间,高下立判。
蔡昆恨不得在地上找条缝钻进去。
他只能红着脸,暗地里给自己打气,或许是因为样本过少导致的差异,刚好遇到了自己不会,对方会的题目。
主持人又问道:“666号,请说出你的问题。”
提问者是一个女孩,她的问题相对而言比较务实,没有那么偏门:“我想要问一个,关于服务器中,缓存方面的问题。”
“缓存分为两个阶段:一是数据的放置阶段,在数据需求量较小的空闲时段,利用有余力的通信资源,向每个用户的缓存设备中放置数据。二是数据的分发阶段,假定在数据需求高峰期,每个用户随机向服务器请求一个完整的文件,服务器综合考虑这些需求,分发完整的数据,以满足所有用户的需要。”
“我的问题是,如何最科学地设计缓存方案?”
提问者甚至将一个PPT发到了屏幕上。
这个问题很具有专业性,但大家都能听懂在问什么。