在第 27 届联合国科技大会,世界数字技术院(WDTA)公布了一系列成果,包括世界首批大模型安全国际标准《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》。
据悉,这两项国际标准为大模型及生成式 AI 应用方面的安全测试标准,由 OpenAI、蚂蚁集团、科大讯飞、Google、微软、英伟达、百度、腾讯等数十家单位的多名相关专家学者共同编制而成。
《方法》还提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法,使开发人员能够识别和缓解潜在的安全漏洞,并最终提高使用大语言模型构建的 AI 系统的安全性和可靠性。