警惕!AI或致虚假信息泛滥

据科技日报,生成式人工智能(AI)横空出世后,除了可能对部分职业岗位有所波及、对现有的版权制度形成新的挑战外,还能被用于社交媒体上的虚假信息活动,既造成了新的危险,也放大了现有的危险,进而危害经济和社会的稳定。

基于现实情况进行合理预测,AI加持下的虚假信息活动可能主要应用于以下4个方面:

①炮制假新闻。

这里主要针对官媒新闻进行歪曲和篡改,淘汰以往“开局一张图,剩下全靠编”的落后的内容生产方式,改为设定要求——输入部分素材——自动生成图文/视频的全自动化模式。

②.散播谣言。

制造假消息快、自动化+批量化传播扩散快,如果再加上由深谙新媒体、社媒调性机制,且深谙传播学或新闻学理论的“专业人士”操刀,便能实现“谎言重复一千遍,就会成为真理”的效果。另外,由于谣言还具有极强的噱头性,天然容易在互联网传播中获得极大的关注度和讨论度,与此截然相反的,却是辟谣不仅要“跑断腿”,还因为“太正”而没人看。

③结合生成式AI与社媒特性,推行“垃圾信息海”战术。

向全网灌注娱乐新闻、八卦信息等“奶头乐”内容,占据用户全部视野,以驱除正经新闻和消息,彻底掌握社媒中流通信息的支配权。同时,幕后推手还能与娱乐公司展开深度合作,在完成既定战术目的的前提下,多捞一笔。

④利用深度合成技术仿冒账号,搅乱正常社媒秩序。

爬取机关、企业、机构、社会组织、名人/大V/意见领袖等官方账号和个人账号的信息,包括但不限于图文、露脸形象、声音等,凭借这些语料和素材生成虚假内容,既能为事主招黑,还能挑起事端、搅乱风波、以假乱真。

更关键的是,为牟利也好,为达成其别有用心的目的也罢,虚假信息的制造者和传播者的行为本就非法,自然会无视法律法规、平台规定等束缚,于是便产生了3大难点——审核难、监管难、处罚难。

①审核难。

目前各平台对生成式AI内容的要求,主要可以概括为“上传者自律”,也就是该用户主动做出醒目标识,向受众明示其内容为AI制作,如此规定“防君子不防小人”。正常用户当然依规行事,不法用户则完全可以不标、缓标、少标。

②监管难。

众所周知,在AI应用于内容制造领域之前,网上就的假消息已经层出不穷,如野草般难以根除。对此,传统的治理方式为大数据筛查+受理举报相结合,并重点打击违规账号、重点标记其关联账号,这是堂堂正正的处置之道,无可指摘。可问题就在于不法用户引入AI后,如果将之前的状态看成零星的、点状的野火,那此后需要处理和整治的虚假信息,将变成片的大火,治理所耗费的人力、物力、难度呈指数级上升。

③处罚难。

最后,在处罚方面既存在配套法律法规制度不完善的问题,又有因隐蔽性而产生的“难抓”问题。不过,不久前关于反网暴的适用法律条文已面向社会收集意见,相信很快就能具体落地。类比到AI生成的虚假信息治理环节,预计相关的法治建设也会快步跟上。

阿知曾多次在关于生成式AI的问题中提及,AI与以往历史上出现的新技术没有本质不同,无关对错和善恶,关键是要看谁来用、怎么用。其作为互联网行业新引擎、金融市场中的新蓄水池作用当然毋庸置疑,但一味地、片面地强调其技术优越性多为投机主义者所为,图利而已。说到底,我们还是需要客观全面地看待生成式AI这项革新性技术,防范其一旦被滥用所可能引发的诸多风险。

发表评论