毕竟我们的语料库实在是太逊了……
我们以前合作的麻省理工学院NLP那边给出的报告
也证实了按LINHUI的思路构建语言模型不可行。”
哈雷·普莱斯:“麻省理工学院那帮人认为不可行,未必就真的不可行。
他们很有可能是他们在逃避责任而已。
反正我觉得完全可以试着借鉴LINHUI的思路搞一个新的衡量标准。”
埃克莱尔·基尔卡加:“你确定我们能够按照LINHUI的思路弄出一个新模型么?
你怎么保证我们弄出的模型不会跟他搞得那个一模一样?”
哈雷·普莱斯:“不管怎么说,我们也需要走这条路。
如果我们连他衡量准确度的模型都不能复现出来。
我们怎么知道他在这套模型究竟有没有猫腻?”
哈雷·普莱斯接着道:“以前我们的语料库或许很low。
但现在我们采用的语料库没什么问题。
现在是加州大学伯克利分校的自然语言中心在和我们合作。
我们测试X1验证算法时可是由10万个文本–摘要序列所组成的语料库作训练集的……”
埃克莱尔·基尔卡加反驳道:“不不不,这远远不够!
想要达到LINHUI算法处理文本那种水平,我们起码需要百万级别文本-摘要序列组成的语料库做训练集。
而这还只是冰山一角。
我们还需要构建一个10^4级别带人工打分标签的文本–摘要序列作为验证集。
以及一个10^3级别的个人工交叉打分一致的文本–摘要序列作为测试集。
否则我们的衡量模型很可能达不到LINHUI搞得那个模型那种置信度。”
哈雷·普莱斯:“你的话确实有道理!
为了缩小边际误差最实际的方法就是增加样本数量。
百万级别文本-摘要序列组成的语料库倒是好说。
这个相比于十万级别的语料库。
构建难度只是线性增加而已。
但是你确定我们要构建你说的那般庞大的带人工标记的验证集和测试集吗?
仅仅是带人工打分标签的文本–摘要序列验证集保守估计就需要我们花费近一个月的时
间去搭建。
这还得是我们还其他语言学专业通力合作不产生嫌隙的情况下。
而涉及到10^3级别人工交叉打分一致的文本–摘要序列测试集更是难上加难。
以前我们只构建过10^2级别的。
测试集的搭建每上涨一个数量级相应的构建难度可是指数级的往上增长。
先前我们为测试提取式摘要算法构建的那个150条文本交叉打分一致的测试集就用了将近两个月的时间。”
而且为什么我们还要引入人工因素?
这样的话不是相当于又回到以前开发那种带有主观色彩的准确度评判标准的老路上了吗?”
埃克莱尔·基尔卡加:“这也正是我想表达的意思。
本来我也觉得不可能参照LINHUI的思路搞出新的衡量标准。
即便我们能按着LINHUI的技术路线走。
也会面临着过于庞大的工作量。”
听了埃克莱尔·基尔卡加的话。
哈雷·普莱斯很绝望:“也就是说仅仅是建立准确度衡量标准时的起步工作就会耗费我们大量的时间?
可是负责决策的那些高层根本不可能坐视我们在这个算法上浪费太多时间。
他们很可能会去直接谋求LINHUI的算法授权。
对于那些商业精英来说,技术什么的本来就是资本游戏的添头。
当他们获得LINHUI的新技术后我们估计会很惨……
我们究竟该怎么办呢?”