美国的立法者还没有找到一种有效的方法来减少不实内容的产生和传播--即强制要求平台使用亲社会干预措施。
泰勒·斯威夫特(Taylor Swift)曾短暂地吸引了数百名立法者的目光,当时一个以分享“辱女图片”为目的的Telegram群组在网上广泛传播假冒斯威夫特的性爱图片。这些图片的迅速传播让政治家们意识到采取监管行动的必要性。具体来说,立法者们意识到有必要限制通过人工智能(AI)生成的不实内容的创建和传播。
在Swift deepfakes事件发生后的几个月里,立法者们提出了无数提案,但国会对非真实内容进行有意义立法的窗口期正在迅速关闭。众议院和参议院在选举前只有不到40天的会期。
打击虚假信息传播最有效的监管方案之一仍然摆在桌面上:指导社交媒体平台使用它们已经掌握的工具。
平台拥有最可靠、最有效的工具来减少不真实内容的创建和传播。目前,这些工具的使用由平台自行决定,而大多数平台选择不使用这些有效的干预措施。国会可以通过强制要求平台使用经过验证的工具来减少用户创建不真实内容的几率,从而纠正这种错失良机的情况。与其在目前加强执行过时、无效的法律,或通过不太可能系统解决这一重要问题的新法律的基础上,立法方法将有所改进。
非真实内容的传播问题
像ChatGPT这样的生成式人工智能工具让更多行为者更容易创建和传播非真实内容,网络安全和基础设施安全局将其定义为“不考虑欺骗意图而传播和扩散的虚假信息”。从有毒Telegram群组的成员到可能与克里姆林宫有联系的俄罗斯二重身公司(Russia's Doppelganger)的个人,不良行为者都利用这些工具传播各种内容,从名人的假性照片到社交媒体上关于乌克兰战争等争议话题的虚假评论。OpenAI最近披露,来自俄罗斯、伊朗、以色列和其他大国的网络影响力行动利用ChatGPT生成多语言的此类评论,并调试各种应用程序的代码,以便更快地分享这些内容。
不真实内容的肆意传播会产生重大而持久的影响。目前,OpenAI报告称,“这些影响力行动仍在努力建立受众群”。随着包括OpenAI和Anthropic在内的人工智能实验室推出更强大的工具,以及不良行为者成为更精明的用户,这种情况不太可能继续下去。这种组合将使不真实内容的传播更具破坏性和普遍性。
如何更好地应对这种可能的未来是一个未决问题。政策制定者似乎热衷于使用一套传统工具来阻止此类内容的传播。拟议的立法应对措施充其量是无效的,而更有可能是分散注意力的来源,从而削弱寻求更有针对性的立法的意愿。
倡导加强执行现有的、过时的法律或实施新的法律,看起来是一种适当的监管对策。不过,为行动而行动并不是当前所需要的。立法资源最好用于要求平台采取经过专家分析的干预措施,并解决内容创作本身的问题。
新立法和"旧"法律的局限性
平台可以也应该带头打击不真实内容
新颖而必要的立法对策将要求平台使用其已掌握的成熟工具。根据《通信体面法》第230条,平台对内容审核拥有广泛的自由裁量权。如果平台愿意,它们可以大大增加用户创建和分享不真实内容的难度。问题是,它们很少选择这样做。这正是国会应该介入并强制要求平台采取干预措施,以减少不真实内容的创建。
如何最好地制造这种摩擦是一项严谨的研究课题。亲社会设计网络(Prosocial Design Network)旨在分享“以证据为基础的设计实践,使人性在网络上得到最好的发挥”,该网络维护着一个潜在的平台干预措施数据库,以促进更健康的信息生态系统。这些做法应由平台自愿采用,以杜绝不真实的内容,或以立法形式加以规定。
亲社会设计网络根据经验证据的程度,对每项干预措施进行置信度评级,从“推断”到“验证”不等。在描述潜在违规行为的警告屏幕后隐藏潜在违规内容的可信度等级为“推断”。从理论上讲,这种审核工具为平台提供了一个介于删除和推广内容之间的中间地带。不过,这种内容炼狱并未达到预期效果。与此相关的是,关于内容可能包含敏感话题的警告标签在减少此类内容传播方面只得到了推论支持。
平台可以而且应该优先考虑“经过验证的”干预措施,以减少不真实和非法内容的传播。一个微小但有效的步骤可能是简单地制定有关人工智能生成内容的创建和传播的规范。简而言之,这类干预相当于平台提示用户在发布内容前审查规范。这种干预措施背后的理论——分享内容前的规范提示将提高对这些规范的遵守——已经过实证检验。2019年在Reddit上进行的一项实验和2022年在Nextdoor上进行的一项实验都表明,这种简单的提示不仅能对相关帖子的内容产生有意义的亲社会影响,还能对帖子可能引发的评论产生影响。这种干预措施是否会对Facebook或TikTok用户产生类似的影响,目前尚无定论,但这种低成本的干预措施完全值得一试。
一种“令人信服”的干预措施是利用人工智能检测可能违反社区规范、法律或两者的帖子草稿,从而部署人工智能来“做好事”。从纸面上看,这种干预措施会让想散布反社会内容的用户有所顾忌,从而降低他们分享这些内容的几率。OpenWeb在同名平台上进行的一项私人研究证实了这一干预措施的有效性。在被提示重新考虑其帖子的用户中,约有一半选择了修改或撤销其内容。在Twitter(现在的X)上进行的类似实验表明,与对照组相比,主动提示使用户发布的攻击性推文减少了6%。
亲社会设计网络还包括许多值得平台和政策制定者考虑的干预措施。虽然这些措施看起来不像新法律或新工具那么重要,但这正是问题所在——平台拥有唾手可得的易于实施的干预措施,这些措施已被证明能积极改变用户行为。事实上,这些干预措施比其他干预措施更容易实施,这是刻意为之,而非意外。作为对内容和用户行为拥有最大控制权的参与者,平台本身应成为监管工作的重点。如果平台未能自愿实施行之有效的干预措施,那么立法者就应规定平台有法律责任这样做。
尽管此类法律理应受到《第一修正案》的审查,但它们很可能经得起审查。第一修正案并不妨碍国会指示平台改变内容流。大数据初创企业早期风险基金Data Elite的首席运营官索菲亚·格拉法纳基(Sofia Grafanaki)指出,平台的设计,包括决定哪些内容能接触到更多用户的算法,超出了“第一修正案理论的核心”。她的理由是,这种设计选择有别于关于平台允许哪些内容的编辑决定。不过,理想的情况是,平台只需坚持自己提出的价值观,如“建立社会价值”,并在没有立法指导的情况下采取这些干预措施。
人工智能实验室也能减少不真实内容的产生。OpenAI能够发现滥用ChatGPT的不良行为者,这表明该公司有能力标记违反工具条款的用户。这些手段可以而且应该得到公司的持续投资。加大对检测能力的投资将支持OpenAI的说法,即它正在积极尝试限制不真实内容的创建和传播。实验室还可以而且应该通过要求某种形式的身份验证来增加创建账户的难度。最后一个策略可能是限制拥有免费账户的用户只能使用指定列表中的提示。所有这些策略都不存在法律障碍,而且相对容易实施。
结论
人工智能生成的图片等不真实内容的泛滥给立法者和平台都带来了巨大的挑战。尽管最近州一级立法努力惩罚此类内容的创作者,但这些法律在执行和管辖权方面面临实际限制,因此不足以采取全面的监管对策。此外,由于技术和行为上的漏洞,传统法律和应对措施(如对人工智能生成的内容打上水印)可能无法有效遏制非真实内容的传播。
更有前景的方法是平台层面的干预。与立法者相比,平台可以更容易地实施并定期微调有效措施,如生成警告屏幕、开发规范性提示以及使用人工智能检测潜在违规帖子。这些干预措施得到了亲社会设计网络(Prosocial Design Network)的认可,为培养更健康的网络行为提供了积极的手段。平台有责任也有能力实施这些策略,制造摩擦,阻止有害内容的传播。如果平台继续不履行这一责任,国会应指示平台实施基于证据的干预措施。这些干预措施将改变用户行为,并有助于建立一个更真实的数字环境。
作者简介:凯文·弗雷泽(Kevin Frazier) 是圣托马斯大学法学院的助理教授。他以Tarbell研究员的身份为Lawfare撰稿。
文章信源:Lawfare
信源介绍:Lawfare是一家致力于国家安全问题的非盈利多媒体出版物,提供深入的法律和政策分析。它涵盖诸如网络安全和民主威胁等领域,并通过内部团队与专家合作,制作包括播客在内的多种内容。该平台还由内部团队和各领域专家组成,发布特别系列和重要国安文件的分析,旨在促进对国家安全法律和政策的深入讨论。Lawfare提供特别系列如外交政策论文、书评等,发布和整理关键国安文件,如1月6日事件和穆勒调查相关文件。
信源评级:
文章仅供交流学习,不代表日新说观点。