田丽 陈馨婕 许洁:基于“智能对抗”的生成式人工智能内容治理探究

作者:田丽(北京大学新媒体研究院副院长,北京大学互联网发展研究中心主任,长聘副教授,博士生导师,本刊学术顾问);陈馨婕(北京大学新媒体研究院博士研究生;许洁:武汉大学信息管理学院科学系主任,武汉大学出版研究院副院长)

《青年记者》2024年第11期

导读:

对以ChatGPT为引领的AIGC内容治理,本研究提出以“智能对抗”的形式重构AIGC内容治理的格局,通过“智能对抗”的实现路径,推动结果型与过程型平衡的治理。

生成式人工智能(AIGC)推动了信息传播革命,使AI模仿人类的创造性劳动,产出文本、图像、音频等多模态媒介表现形式。然而,AIGC的广泛应用带来了内容安全的严峻挑战,传统的内容治理手段在应对AIGC带来的风险时捉襟见肘,迫切需要从理论和实践层面探索新技术条件下的内容治理逻辑与路径,以确保AIGC成为助力而非阻力。而这一目标的实现离不开技术的支持。因此,对以ChatGPT为引领的AIGC内容治理,本研究提出以“智能对抗”的形式重构AIGC内容治理的格局,通过“智能对抗”的实现路径,推动结果型与过程型平衡的治理。

一、“智能对抗”的必要性

(一)AIGC的内容风险特征。Bond-Taylor等学者认为生成式人工智能的本质是对训练样本的分布状况进行建模,根据模型抽取样本生产内容[1]。Ruthotto和Haber等提出AIGC的核心在于模型的能力,它是通过分析和理解数据的内在结构,来自动创造与训练数据风格一致但内容独特的输出,从而实现对人类创造性任务的模拟[2]。因此,AIGC的生产逻辑本质上关乎技术模型的选择和数据训练的基础架构。即是说,AIGC的生产逻辑依然根植于人工智能的三大核心要素:算法、算据和算力。从AIGC的系统要素构成来看,李白杨等指出网络形态数据、内容生产关联算法、交互用户、资源组织平台构成AIGC的基础性要素[3]。由此可见,AIGC的内容风险包括了传统的网络内容风险,但也有其自身的特征。

既往传统的网络内容风险约有九大类型:内容低俗化风险、网络暴力风险、虚假信息传播风险、信息操纵风险、网络恐怖主义风险、网络文化入侵风险、网络意识形态风险、知识产权风险、侵权风险。[4]然而,以ChatGPT为代表的AIGC技术,虽然目前在实际应用过程中尚处于风险演进的初期阶段,但这种无节制的使用可能导致网络内容风险的进一步加剧,如虚假新闻[5]、版权争议[6]、伦理损害[7]等。根据AIGC内容生产逻辑,数据、算法、用户、平台均在不同层面加剧了这种风险。在数据和算法中,由于算法设计或训练数据存在缺陷,使得AIGC可能会产生逻辑推理错误的内容[8],从而导致虚假信息的生产;而GPT-3及更高版本模型操纵的风险使得信息内容存在偏向自由主义的价值观念预设的倾向[9],用户在与AIGC“一对一”的互动过程中,极易被AIGC灌输相应的政治理念,从而带来极大的隐蔽性意识形态渗透风险[10]。在用户层面,部分用户刻意使用AIGC进行价值与意识形态的错误传播,误导性信息在网络空间的传播极易在公众中形成错误共识,成为外部意识形态渗透的“新平台”[11]。在平台层面,平台的集成扩大了AIGC应用场景,由于其生成内容的高度逼真性,使得这些风险更难以被传统手段识别和控制,对信息真实性和新闻公信力均造成了严重冲击,虚假内容的跨境传播逐渐成为一种新的复合型国家安全威胁[12]。此外,AIGC的算法黑箱、数据隐私泄露等,也构成新的内容风险类型。这些风险相互叠加,使得内容治理面临更多的不确定性和挑战。

(二)AIGC对内容治理的挑战。

面对这些挑战,传统的人工审核和计算机识别模式显然已不适应AIGC带来的内容风险。因此,我们需要探索新的内容治理逻辑——“智能对抗”,来应对AIGC技术所带来的挑战。它不仅是技术层面的创新,更是内容治理理念和模式的革新。我们需要建构更“智能”的方法,来学习和预测AIGC的生成模式。

二、“智能对抗”的逻辑与路径

在围棋界,通过深度强化学习技术学习游戏规则、专家数据、经验数据,AlphaGo系列已超越人类水平的围棋对弈能力;在算法模型的博弈下,AlphaZero仅训练30小时就超越了AlphaGoLee,凸显了深度强化学习在解决控制决策问题中的广泛适用性。“机器解决机器”带来的问题提供了另一个视角,但需指出的是这些算法都在一个确定的环境模型的情况下进行,即模拟器(simulator)[17]模拟了围棋这一较为单一的场景。而现实中,网络传播环境通常是复杂且未知的。

根据对抗对象AIGC的逻辑,本文认为,“智能对抗”的核心在于利用已经构建的风险测评模型,对AIGC生成的内容进行深度评估,并基于这些评估结果预测潜在风险,从而提供相应的防控策略。它的重点是内容安全治理数字建模新体系,即将传统的定性评估转化为定量分析。

因此,智能对抗的基本逻辑如下:借鉴基于GAN训练样本的评估方法思路[19][20](如图1),从数据收集开始,确保数据收集阶段的多样性,根据生成样本建立对抗训练样本,即检测模型。

图1基于GAN训练样本的评估方法

通过检测模型与待测的AIGC模型的对抗,从而不断提升内容风险的监测效能和控制效能。此外,该模型的运转还离不开对风险预警和风险防控中的阈限值探索和因果推理。

通过这种综合性的方法,智能对抗旨在构建一个能够自我完善、适应性强的内容治理体系,以有效应对AIGC技术带来的挑战。这一体系的建立,需要跨学科的合作和社会各界的共同努力,以确保技术的发展方向与社会价值和伦理标准相一致。

三、“智能对抗”的思想保障

随着人工智能的广泛应用,其对社会的影响越来越大,产生的诸多问题也超越传统治理模式的效用范畴,因此,除了需要积极探索新技术,更需要新思想的支撑。“智能对抗”的复杂性、动态性以及不确定性迫切需要新理论的指引;AIGC不仅是技术行为,更是社会、哲学问题,离不开伦理与价值的定位。因此,针对AIGC带来的挑战,本文认为需要采用“敏捷治理”的理念来创新内容治理制度,以达到高效、灵活且适应性强的目标。

四、结语

AIGC的内容安全治理已成为新技术和新实践发展中的重要议题,亟需新思想和新理论的指引:发展“智能对抗”的新思想;探索敏捷治理的新理论;建构内容风险数字建模的新体系。虽然AIGC内容治理离不开算法、算据、算力三大核心,但对于内容治理,更应从多学科、多视角进行探索,而非完全的技术治理,也非静态治理。因此,内容风险监测的模型开发和利用一是需要以敏捷治理的思想动态治理,二是需要体现人本主义的价值对齐,继续完善该方法需要不同学科的合作和交叉研究。

【本文为国家社会科学基金重大项目“中国特色网络内容治理体系及监管模式研究”(批准号:18ZDA317)成果】

参考文献:

[1]Bond-TaylorS,LeachA,LongY,.Deepgenerativemodelling:Acomparativereviewofvaes,gans,normalizingflows,energy-basedandautoregressivemodels[J].IEEEtransactionsonpatternanalysisandmachineintelligence,2021,44(11):7327-7347.

[2]RuthottoLars,[J/OL].GAMM-Mitteilungen,2021,44(2).

[3]李白杨,白云,詹希旎,等.人工智能生成内容(AIGC)的技术特征与形态演进[J].图书情报知识,2023,40(1):66-74.

[4]王建亚,马榕培,周毅.网络信息内容安全风险:特征、演变及场景要素解构[J].图书情报工作,2022,66(5):13-23.

[5]陈昌凤,师文.智能化新闻核查技术:算法、逻辑与局限[J].新闻大学,2018(06):42-49+148.

[6]宋伟锋.生成式AI传播范式:AI生成内容版权风险与规制建构:以全球首例AIGC侵权案为缘由[J].新闻界,2023(10):87-96.

[7]乔喆.人工智能生成内容技术在内容安全治理领域的风险和对策[J].电信科学,2023,39(10):136-146.

[8]田丽,陈馨婕.AIGC对新闻真实性的影响成因及路径分析[J].青年记者,2024(02):79-85.

[9]FengS,ParkCY,LiuY,:TrackingtheTrailsofPoliticalBiasesLeadingtoUnfairNLPModels[A/OL].arXiv,2023.[2024-08-26]..

[10]子杉.国家的选择与安全:全球化进程中国家安全观的演变与重构[J/OL].(2024-08-26)..

[11]朱永彪,王俊超.元宇宙背景下的国家安全治理:基于科技革命演变的视角[J].情报杂志,2024,43(03):79-86.

[12]HornerCG,GallettaD,CrawfordJ,:Theunexploredfueloffakenewsonsocialmedia[M/OL]//,2023:147-174.[2024-08-26]..

[13]KatzenbachC.“AIwillfixthis”–TheTechnical,Discursive,andPoliticalTurntoAIinGoverningCommunication[J/OL].BigDataSociety,2021.[2024-10-19]..

[14]陈昌凤,徐芳依.智能时代的“深度伪造”信息及其治理方式[J].新闻与写作,2020(04):66-71.

[15]“AI换脸”性犯罪引发韩国女性恐慌:22万用户涉事,青少年成主谋[EB/OL].鲁中晨报,2024-08-30.

[16]“deepfake”politicalvideos:“Weareoutgunned”[EB/OL].(2019-06-12)..

[17]章胜,龙强,孔轶男,等.围棋人工智能AlphaGo系列算法的原理与方法[J].科技导报,2023,41(7):79-97.

[18]陈昌凤,张梦.由数据决定?AIGC的价值观和伦理问题[J].新闻与写作,2023(04):15-23.

[19]XuQ,HuangG,rks[A/OL].arXiv,2018.[2024-10-19]..

[20]罗佳,黄晋英.生成式对抗网络研究综述[J/OL].仪器仪表学报,2019,40(3):74-84.

[21]:Asmachineslearntheymaydevelopunforeseenstrategiesatratesthatbaffletheirprogrammers.[J/OL].Science,1960,131(3410):1355-1358.

[22]TheMythOfAI|[EB/OL].(2014-10-14)..

[23]曾雄.人工智能大模型价值对齐的现状考察、问题检视与规范进路[J/OL].电子政务,1-11.[2024-10-21]..

[24]$650millionsettlementofFacebookprivacylawsuitlinkedtofacialphototagging[EB/OL].[2024-08-31]..

本文引用格式参考:

田丽,陈馨婕,许洁.基于“智能对抗”的生成式人工智能内容治理探究[J].青年记者,2024(11):74-78.

免责声明:本文章如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系