第167章 “歪打正着”的验证环节

PS1:标注农场,由人类识别并为事件和物品标注机器可以分辨的标签,以帮助AI学习的公司。

这是一种纯粹的劳动力密集型产业,是当前很多AI产品背后最脆弱的基础,更是东大AI产业能快速发力的一个关键因素。

本小章还未完,请点击下一页继续阅读后面精彩内容!

即面对较复杂的事务,超出字面意思的1+1=2,这种人类已经可以给AI提供成熟的公式体系的问题。

这种人类可以通过开销更小的程序直接解决的问题,也是人类最需要AI解决的问题时。

我们依然无法让AI像自然人一样直接学习“抽象”的自然界,必须通过人类的反刍才能使其渡过初学者阶段,而这种人类反刍过的数据,被称为AI的训练集。

在最初级别的AI训练中,想要AI能正确分辨与训练集同源的检测集(相当于AI是否训练成功的考试题),甚至会需要10倍甚至更多倍数量于检测集的训练集(比人类为了通过考试刷题库的效率还低)。

而这一训练量与分辨能力的比值,即使是加强型机器学习的算法不断提升的当下,也很难突破1:1。

所以现在很多AI公司,最重视的就是可以被AI训练使用的训练集。

各种AI企业会在用户协议中添加,允许其使用用户在使用产品时被动反刍出来的数据的条款,就是因为这一点。

当然,由于训练集的重要性,研究者一直在试图绕过人类反刍这一事实上是当前AI发展最大瓶颈的过程。

其中的方法很多,包括给AI提供基础的规则后,让AI自行生产可以用来学习的训练集,比如第二代阿尔法狗,通过自己和自己对弈生产棋谱,来学习围棋下法的方案。

以及通过训练一个通用性的,可以理解人类既有文献的大模型,为其他专业模型生产训练集等。

而后者正是现在所谓AI语言大数据模型铺天盖地的原因之一。

只是这种试图一劳永逸的为专业AI生成一个,类似于汇编语言在编程语言和机器语言之间作用的大模型的难度,显然很高。

并且这一技术路线,不止面临技术问题,还面临很多政治、伦理问题。

即相比专业化的AI生产工具,存在真专业壁垒保障安全,这类直接获取文字这一代表文明基础的AI,会更容易产生“天网”问题。

因为AI训练的本质,是一种黑箱化的随机归类过程,人类虽然暂时无法彻底理清训练过程,但依然可以抓到一些既有的规律。

这会让这类AI在事实上受到训练集的影响,并产生所谓“人格”倾向——和很多此类AI对话,使用一些技巧就可以让这些AI对于一些错误观念深信不疑。

而这背后意味着什么,很多科幻电影已经给出了答案。

而且更为令人不寒而栗的是,最新的研究结果显示,不在训练集中添加人类伦理观念,会大幅提升AI学习的速度。

这暗示了,如果人类真的希望能搞一个跨时代的AI出来,就必须减少现在对AI训练过程的道德限制。

这种限制、效率、安全的不可能三角,甚至导致了OpenAI(ChatGPT的开发公司)创始人之间的分道扬镳。

对此,AI激进派中的保守者——主张取消训练集中的道德限制,另找其他方案保障AI安全的研究者,为解决这一问题提出的一个方案,已经在OpenAI最新的产品中落实。

即将初步训练过程置于沙箱,并彻底封闭,然后对生产出来的基础AI添加监管后,再组装成最终的AI——颇有一种赛博朋克世界黑墙的意味。

而这种将初步训练结果彻底封闭的操作,还顺路彻底断了一种被称为数据蒸馏的取巧手段。

后者也是国内很多AI公司被诟病为抄袭者的关键,那就是使用一个成熟的大数据AI,为他们的AI生成训练集(需要初步训练结果)。

这样可以让新的AI,以更高效的方式训练,并且训练出来的AI运行时所需要的花费更少。

当然,代价是新AI某种程度上,只是原先AI的子体罢了。

很多通过ChatGPT数据蒸馏出来的AI,最初被发现,就是因为询问一些特殊问题后,后者的回答会和ChatGPT完全一样。

2、与薯条君同源

指玩家们当前正处在薯条君刚刚进入“游戏”时的玄学力量觉醒阶段,刚好可以替代薯条君完成对于信息封装物的初步判读,以降低薯条君在这方面的工作压力。

同时这也是其他薯条旅成员不参与这种判读工作的原因,因为对于后者来说,这种初级工作是在浪费其能力。

3、爬山党

指那些