【政学术】周亭 蒲成 | 生成式人工智能的国际传播能力及潜在治理风险

    来源:政府与公共事务学院发布时间:2023-02-25浏览次数:10

图片


图片

作者

周亭

中国传媒大学教授,政府与公共事务学院院长

图片

作者

蒲成

中国传媒大学国际传播白杨班博士研究生

近期,人工智能公司OpenAI推出的聊天机器人ChatGPT(Generative Pre-trained Transformer,聊天生成预训练转换器)备受关注。该程序基于GPT-3.5架构的大型语言模型,具有较强的内容生产能力与学习强化能力,现已能承担多轮文本对话问答,未来或将延伸出图片、视频等多模态功能。专家预测其具有强大的潜力,可以升级互联网基础性应用比如更迭搜索引擎,可以改变内容运营模式如社交媒体账号运营,可以影响智能化决策如电商购物决策。从信息传播角度看,以ChatGPT为代表的人工智能自动生成内容技术(AIGC)正在重构信息生产、流通、消费流程,它揭开了智能传播大规模应用的序幕,同时也引发了国际社会对隐蔽于技术之后的偏见歧视、违规滥用、有意欺诈、政治造谣、伪造身份等问题的担忧。从国际传播角度看,生成式人工智能所拥有的传播能力将改变国际传播的生态,一方面带来内容生产潜在机遇,另一方面也引致认知重塑、价值固化的风险。从全球治理角度看,AIGC的发展对国际冲突管控,网络安全和数字平等议题都提出了新的挑战。

一、生成式人工智能的国际传播能力

ChatGPT并非渠道和平台,而是独立的传播者。它已经展现出并正逐渐发展出信息生产能力、接近用户能力、固化倾向能力和塑造认知能力,将对国际传播生态产生深刻影响。

(一)“无所不能”的智能生产

生成式人工智能拥有人工书写难以匹敌的信息生产能效。在国际新闻供给方面,可以有效减少国际资讯检索难度和语际转换压力,大规模应用后能够以较低的成本、极高的效率面向全球多语种受众群体开展一对一传播。在新闻形式创新方面,能有机整合数据、图表、交互程序等,进一步加快数据新闻、新闻游戏等新闻范式兴起,增强了新闻产品的新颖性与吸引力。在亲密情感互动方面,能够展现出人格化特征,如积极主动、有责任心、可沟通性等,不仅能满足用户的信息使用需求,还可能培养情感依赖。通过上述高效率、多模态、人格化的信息供给,生成式人工智能看上去“无所不能“。

(二)“不加思索”的使用习惯

与过往所开发的智能语言助手相比,ChatGPT拥有更为拟人化的互动感,可以通过实时对话精准、动态对接用户信息需求,其多语种沟通技术也能为用户的跨国信息交往提供便利,天然具备接近用户的能力。ChatGPT为代表的生成式人工智能不同于现阶段仍然以一对多为特征的“精准传播”,而是直接进入一对一服务模式,介入性更强,控制力更强,更容易培养用户的信息接触路径依赖,未来有望成为人机交互的第一入口,导致用户不假思索地使用,长此以往或将形成新的渠道垄断与智能鸿沟,引致新的数字霸权。

(三)“不由自主”的态度认可

在信息呈现方面,ChatGPT能够多角度、多维度回答提问,能为具有初步信息需求的用户提供充足内容,也能为具有深度信息需求的用户提供具有启发性的架构。一旦形成用户使用依赖,极有可能通过提供看似不带情感、纯粹基于技术的信息整合和阐释架构,隐蔽其“预设立场”“固化倾向”的能力。事实上,ChatGPT生成的内容基于对大量互联网语料的汲取学习。据统计,全球访问量前一百万的互联网网站中,将近60%的内容是英文的,中文内容还不到1.5%,其中简体中文内容更少且质量不高。不难推测,ChatGPT在自主训练的过程中使用的语料大部分是英文,然后是俄语,德语,西班牙,法语等。互联网简体中文内容存在内容剽窃、抄袭、洗稿,广告泛滥等问题,非常不利于ChatGPT学习和运用。尽管ChatGPT有意回避自我表态,在被问及需要阐释个人意见、预测未来事件走向时,往往答道:“ChatGPT 作为一个语言模型,无法表达意见或情绪,也没有能力预测未来”,但学习的对象决定了它的信息检索和整合不可避免带有来源信息的预设立场和价值观,回答本身就是对某些价值立场的传达和固化,会令忠实用户的认知和态度不由自主受其影响。比如有网友测试,在询问新冠病毒起源时,ChatGPT的回答是起源于中国武汉。

(四)“不容置疑”的认知依赖

与算法推荐根据用户行为进行数据画像,向用户推送信息的方式相比,对ChatGPT的使用是在用户自我需求驱使下的主动行为。主动获取的信息会被用户认为是“我想要的”“我认可的”而不是“让我看的““我质疑的”,长期接收包含价值偏向的信息,可能令用户形成对ChatGPT生成内容不容置疑的认知依赖。

二、生成式人工智能的潜在治理风险

瑞银集团的研究报告显示,ChatGPT在2022年11月底推出后,到2023年1月的月活跃用户数预计已达1亿,成为历史上用户增长最快的消费应用。在如此短的时间积聚起庞大活跃的全球用户群体,让生成式人工智能有可能成为“灰犀牛”,引发虚假信息泛滥,干扰舆论导向,危害网络安全,挑动价值对立,制造新的不平等等风险。

(一)成为舆论认知战工具

科技追求向善,但对技术的运用可能会让ChatGPT有武器化的风险。ChatGPT具有先进的深度神经网络技术架构和智能化、拟人化的互动真实感,存在被用作国际信息战、舆论战、认知战新工具的隐忧。首先,ChatGPT具备强大的信息生产和结构文本的能力,能源源不断地生产各类真假难辨的信息,影响国际舆论。美国新闻可信度评估与研究机构NewsGuard发现,如果对ChatGPT提出充斥阴谋论和误导性叙述的问题,它能在几秒钟内改编信息,产生大量令人信服却无明确信源的内容。其次,ChatGPT的回答基于对国际互联网已有语料的学习,来自欧美发达国家的英语信息占据主导地位,因此ChatGPT的回答不可避免是对某些价值观的强化,无法提供价值观的竞争。比如,有网友测试,当询问ChatGPT,中国的民用气球飘到美国时,美国可不可以将其击落?回答是“可以”,而当询问美国的民用气球飘到中国时,中国能否将其击落时,回答则变成了“不可以”,表现出典型的“双标”立场。[https://www.163.com/dy/article/HTG3D7MH0552RR09.html]

(二)延宕国际冲突

国际互联网中充斥着海量未经过滤、包含偏见的信息,其中以种族歧视和性别歧视居多。ChatGPT的回答基于对互联网信息和受众反馈的学习,不但影响认知,而且强化用户的偏见。例如,英国媒体Insider报道称“ChatGPT曾告诉用户可以折磨某些少数民族人士”。[ https://www.insider.com/chatgpt-is-like-many-other-ai-models-rife-with-bias-2023-1]由于目前没有办法对ChatGPT的回答进行前置性审核,在海量回答中,包含有严重错误的答案很容易逃逸。偏见性信息如果通过生成式人工智能在世界范围内大量生产和流动,将会加剧分裂主义、种族偏见等国际冲突。尽管AI界已经意识到这一产品弊端,但当前的不良信息过滤技术还无法实现绝对可靠。过滤模型的迭代更新仍然依靠旧有数据,随着更多数据被投喂至ChatGPT,制造偏见和遏制偏见将成为一场持久的追赶游戏。

(三)危害网络安全

ChatGPT兼具强大的数据汲取能力和文本写作能力,可能会成为加剧黑客攻击和危害网络安全的推手。首先是窃取用户信息。ChatGPT的底层工作逻辑是对海量互联网数据的搜集分析,随着语料库的持续扩大,更多用户信息将被窃取并倾注其中。私营公司垄断消费者数据客观存在用户信息泄漏风险,从2022年底Facebook被曝泄露5亿用户数据事件中就可见一斑。第二是助推黑客犯罪。ChatGPT能够迅速编写钓鱼邮件和恶意代码,极易沦为黑客的武器化工具。据美国网络安全新闻网站Dark Reading报道,黑客正在借ChatGPT窃取大型公司数据,微软、贝宝、谷歌和奈飞等著名跨国企业已经成为其目标。[https://www.darkreading.com/vulnerabilities-threats/bolstered-chatgpt-tools-phishing-surged-ahead]然而,当前网络监管工具未能实时跟上AI技术的发展步伐,让黑客有了侥幸之机。

(四)加剧全球数字不平等

ChatGPT的普及在巩固欧美跨国巨头的市场主导地位的同时将进一步拉大南北国家间的数字鸿沟差距,并造成新的国际信息传播不平等和数字剥削。一方面,ChatGPT作为西方科技与资本的混合产物,其发展有利于巩固并扩大西方的国际话语权。其创造者人工智能企业OpenAI位于美国旧金山,该公司联合创始人包括特斯拉创始人马斯克(Elon Musk)。此外,据澎湃新闻报道,微软正在洽谈向OpenAI投资100亿美元,打造在搜索领域的新增长点。另一方面,ChatGPT也正在制造新的数字剥削现象。据美国《时代周刊》报道,为了训练ChatGPT,OpenAI雇佣了时薪不到2美元的肯尼亚外包劳工对庞大的数据库进行手动标注,他们平均每小时最多要阅读和标注超2万个单词

面对以ChatGPT为代表的生成式人工智能的挑战,未来一方面需联合全球治理力量,谋求公平解决方案,防范虚假信息,侵犯隐私,偏见歧视,数字鸿沟等问题,号召全球共同应对认知塑造的风险挑战;另一方面应扶持本土有实力的企业开发人工智能内容生成平台,加大互联网简体中文优质内容的供给,借助新科技打开言说中国和认知争夺的突破口,同时加强对公众信息辨别能力的引导,预防技术冲击带来的舆论危机。