物流及供应链多元技术研发中心 > 网志
网志
存档
2023
当「无法再知道什么是真实的」
2023年07月11日

近几天有一则新闻,说欣顿 (Geoffrey Hinton) 离开了工作10年的Google,往后,他便可以自由地谈论人工智能的风险。

欣顿被称为「AI教父」,他与另外两位专家在2018年获颁有「计算机界诺贝尔奖」之称的图灵奖,以表扬其在深度神经网络(为GPT的核心技术之一) 的重大贡献。

欣顿说他其中的一个忧虑是,互联网将充斥着虚假的信息,普通人根本无法再知道什么是真实的。 笔者看后不期然想起一个在网上的讨论题目,它是关于GPT会否摧毁社交网络平台? 这个题目看似有点夸张,但也是有一定的理论根据的。

社交平台一般是基于人与人之间的信任,提供各个可供用户分享各式信息的渠道,例如可通过相片与熟悉的朋友分享一下今天的美食。 而用户在平台上所花的时间,以及有关的行为,例如点赞、写评等,则会直接影响平台运营商的广告收入以及数据分析方面的收入。

GPT技术在自然语言理解和文本生成相当出色,若以之在社交平台上处理与人类的交流,一般人极难区分,使平台变得真 (人) 假 (人) 难辨。 情况就如现在收到一个 “+852” 的来电一样,市民不会那么容易便把个人信息提供给对方。 社交平台的分享变少了,有关的参与者所花的时间也会相应减少,平台商的广告收入也会降低了。

更甚的是,如果以AI假人写评论、点赞等,那就可能造成虚假的市场观点,如果数量足够的话,更可以操纵市场。 这样会使客户失去对数据分析方面的信心,从而直接影响平台运营商的收入。

这种因为市场中的信息不对称而导致市场衰退的情况,是有条件限制的,通过一些手段是可以避免的。 因此,笔者估计社交平台被摧毁的机会并不太高,相反,比较有可能出现的情况是:

一. 社交平台会实施比较严格的审核机制,以确认是真人参与。
二. 在不同的平台之间,也可能会通过加强合作,来进行跨平台的真人认证。
三. 平台将可能加大对假人的惩罚,以及增加对举报假人的奖励。
四. 用户间会建立一些可信网络,例如中学同学网、亲人网,以及其他可容易从其他渠道接触到真人的群组等。

通过以上措施,可以把有关的信息不对称问题减少,使用户可以「知道什么人是真实的」,从而增加用户信任,维护平台生态。

LSCM – David Chung