AIGC三大定律:兼评生成内容标识、合理使用以及AI税
一、AIGC三大定律
“给AIGC打标可能是人类第一次希望在机器面前拿回主体性”——不知道为什么,看到今天生效的《人工智能生成合成内容标识办法》和《网络安全技术 人工智能生成合成内容标识方法》,我脑子里莫名想起这样一句话。
AIGC的势头有多猛,现在已经不用解释太多了,网络上的各种信息背后都充斥的AI的身影,越是算法推荐的可能AI含量越高,因为AI太了解算法想要什么,它们可以把最当红的那些内容进行像素级拆解,然后再快速仿制或者重组成新的爆款内容,然后再算法的加持下来到你的屏幕上,占据你的心智。
这个模式造成了网络内容生态一度呈现非常繁荣的局面,创作的门槛被AI踏平之后,似乎人人都在一夜之间变成了内容高手,只有你想不到没有AI做不出来的。可是这种繁荣的背后,很多内容领域的资深从业者却不乏对未来内容生态的担忧,AIGC真的可以取代人类创作吗?对这个问题进行深度思考之后,我发现了三个重要的事实(定律):
AI的能力来自于对人类已有智力成果的学习;
大部分人对AIGC的定位并非辅助创作而是替代创作;
AI的学习和生成效率均没有上限;
第一个事实不用太过赘述,目前AI是通过学习人类创作的语料来形成自己的内容生成能力的。特别是在内容创作领域更加显著,很多AIGC工具专门把某一类版权素材作为语料,不管是针对某个IP的还是某种风格的,总之具有定向生成能力的模型越来越多。不仅如此,还有很多模型应用专门分析某些热点内容的创作逻辑、思路和情节,然后根据拆解出来的线索重新生成同类型内容,使之成为爆款的概率大大增加。
第二个事实是随着技术进步自然而然带来的结果。最开始AI技术没那么好用,这时候人们还常常用“人工智障”这类字眼进行调侃,但大模型这个科技树被点了之后,人类很快认识到AI在内容上的完成度和质量已经远超自身平均水平。
这个笔者自身就有强烈的体感,早几年做打击机器洗稿的案件,那时候的洗稿是借助算法通过简单的语意、顺序替换完成,由于没有AI的“理解”能力,最终洗稿出来的内容非常僵硬,基本上跟原文没太大区别,模仿能力基本上是“一眼假”的水平。但现在的AI仿写和洗稿,任何一个普通用户都无法判断出是不是AI写的以及是仿了哪一篇文案写的。
其实,AI仿写是AIGC技术原理的一个最简单粗暴的体现,即便是离开了针对某一篇具体文案的模仿,本质上根据第一个事实中所披露的AI使用人类语料进行预训练的技术原理,AI生成的所有内容都是来自于人类语料之光在AI容器中发生的折射。
所以,当人们发现了如此高水平的创作工具的时候,多数人的使用方式也就必然是“替代创作”而非“辅助创作”,毕竟想让AI辅助的门槛太高了,现实中绝大多数人是不具备创作能力的,自己都没有创作能力,何来的AI辅助呢?
第三个事实也不用赘述,唯一要注意的是AI在学习和生成两端都是无限高效率的,也就是学得超快,做的超快。
好,现在我们把这这三个事实也可以看作是三个定律,把它们在逻辑上进行推演,可以得到一个非常惊人的结论:“教会AI徒弟,饿死人类师傅”。
这个推演的过程很简单:先是人类开发了一项能够向人类自身学习的工具,然后这个工具被主要用来替代自身的内容创作活动,最后是这个工具的学习和内容生成效率高到没有上限,结果必然是人类的内容被快速学习完毕,然后由于创作效率远低于AI生成效率,进而在内容市场上被AIGC所驱逐。
说的再直白一些,人类创作者还是倒在了AI的效率碾压之下。
理论解释现实:AIGC打标的底层逻辑
为什么要费这么多笔墨推到一个所谓的“AIGC三大定律”,并且最终推导出一个惊悚的结论呢(看上去有点像机器人三大定律最终推导出机器人叛变的结论),因为逻辑上成立的事情,在现实中代表着普遍的必然性,我们可以通过这些提炼出来的理论来分析一下现实的问题——比如刚好今天生效的《人工智能生成合成内容标识办法》和《网络安全技术人工智能生成合成内容标识方法》。
很多人更关注的是这两个文件中的具体要求,可我们似乎很少去想为什么要有这两个文件,在技术突飞猛进的今天,任何政策和法律都可能给技术带来抑制效果,所以一定有足够的理由才能够对技术发展施加干预,个人认为,这个专门针对生成合成内容领域的标识要求,就是基于人类创作的内容正在被AIGC所驱逐这一重要结论所提出的。
说的更具体一点,我们无法接受人类创作者和人类创作内容被从内容市场驱逐的结果,因为一旦如此,将引发的后果包括:
AI失去新的语料,从而失去技术层面可持续发展的可能;
用户无法忍受AIGC的同质化甚至虚假内容,导致失去对内容领域的注意力和付费意愿;
内容平台失去了真人之间的链接(内容不过是链接的媒介),从而失去了存在价值;
监管失去了对象,监管真正关心的不是技术,而是技术背后的人。
为了避免此类结果,就必须要把那些真正创作内容的人和他们的内容识别出来,因为识别是区分对待的前提,有了识别,用户才好分配注意力,有了识别平台才好调整算法和流量的权重,有了识别,监管才算找到了真正的对象。
可以预测,在识别的基础上,各方力量会将资源重新向人类作者倾斜,例如给人类作者更多的流量,给AIGC内容降权,惩罚没有尽到AI标识义务的开发者或者使用者,严厉打击将AIGC专用于生成虚假内容的行为(例如笔者代理的AI种草不正当竞争案等),所有的做法都是为了让人类和AI之间倾斜的内容天平重新归位,让人类创作和技术发展之间达成一个合理的平衡。
这个三大定律和推理结论除了解释AI标识的目的和价值,还可以进一步解释为什么美国已经出现的几个使用版权内容训练大模型的司法判例,这些案件中对于“合理使用”的认定不约而同的都把“市场替代”看作是最重要的判断维度,这个思路一样是为了恢复“人类创作”和“AI生成”之前失衡的天平,让人类师父不至于“教会徒弟”之后就迅速“饿死”。
还可以解释为什么此前欧盟的《人工智能法案》和国内的《网络安全技术 生成式人工智能服务安全基本要求》标准,都提出来要对模型训练使用的语料来源进行披露,此举仍然是为了保障版权方(创作者)的知情权,否则哪个徒弟跟师父学习了都不知道。
三、看向终极:AI税
事实上,“AIGC三大定律”用来分析当前的人类AI管制政策有点大材小用了,我们甚至可以用它对一个人类未来的终极可能——“AI税”——进行合理性分析。
照当前的发展速度,通用人工智能的奇点时刻已经近在眼前,届时人类中的绝大部分都将失去劳动价值(脑力和体力),包括马斯克和王兴兴(宇树科技)等企业家都已经提到,人类不必再通过工作体现价值换取收入,AI可以替代人类完成这些事情,届时的AI的“劳动成果”将通过AI税的方式向全体人类分配,一个无限供应的理想社会似乎在向我们走来。
可问题是,从逻辑上讲,凭什么可以向AI收税呢?又凭什么向不特定多数人分配呢?前文中提出的三大定律也许可以提供逻辑上的解释:AI的能力基于全体人类“师父”的教学(无论是版权内容还是其他数据语料),目前的法律和政策最多只能限制AI不能在细分领域跟“师父”进行替代性竞争,但通用人工智能实现之后是无差别替代所有“师父”,所以它们应该给所有师父一个叫做“AI税”的补偿(学费或者赡养费)。
当然,在很长一段时间里,人类中的精英仍然有可能继续充当“师父”的角色,理论上他们拿到的“学费”可能远高于一般人类,这也许是未来贫富(巨大)差距的主要来源。
围绕AI的法律规则还会不断出现,但每一个都应该基于人和新技术(新文明)之间关系的深刻理解,这才是对当代法律人最终极的考验。
