大模型安全、监管与合规
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.3.1 提升大语言模型的社会信任和声誉

公众的信任是AI得到广泛应用和发展的基石。如果AI的安全性无法得到充分保障,这种信任就会受到损害。生成式AI(如聊天机器人、内容生成工具等)若在内容生成、决策支持等方面有偏差或失误,将削弱公众对AI技术的信任。例如,如果一个大语言模型因包含或生成有偏见的内容而受到批评,不仅会损害研发或使用该大语言模型的公司的声誉,也会使整个生成式人工智能领域的公信力受损。2024年1月10日,世界经济论坛发布《2024年全球风险报告》。该报告由世界经济论坛、苏黎世保险集团和威达信集团共同编制,吸纳了于2023年9月接受调查的1400多位全球风险专家、决策者和行业领导者的观点。报告显示,信息错误和虚假信息(misinformation and disinformation)是最大的短期风险,如图1-1所示。

图1-1 世界经济论坛《2024年全球风险报告》十大风险调查

为促进国内大语言模型和人工智能产业的健康发展,2023年,中国电子技术标准化研究院发起“大语言模型标准符合性评测”,围绕多领域、多维度模型评测框架与指标体系,涵盖语言、语音、视觉等多模态领域,建立大语言模型标准符合性名录,以引领人工智能产业的健康有序发展。在国内首个官方“大语言模型标准符合性评测”公布的结果中,360智脑、百度文心一言、腾讯混元(如图1-2所示)、阿里云通义千问等大语言模型通过了测试,显示出了它们在通用性、智能性、安全性等多个维度的合规性。这种评测旨在建立大语言模型标准符合性名录,促进国内大语言模型和人工智能产业的健康发展,同时也对大语言模型的公信力起到了积极的支撑作用。[1]

图1-2 大语言模型标准符合性测试证书(腾讯混元大语言模型)[2]

对大语言模型的公信力的维护,有助于确保大语言模型在社会中赢得信任和声誉,从而推动其广泛应用和可持续发展。