近日,全国网络安全标准化技术委员会正式发布《生成式人工智能服务安全基本要求》(以下简称《安全基本要求》),从语料安全、模型安全等多个维度规定了生成式人工智能服务在安全方面的基本要求,高校、研究机构、夸克等科技厂商等多方参与了文件起草。
据介绍,安全可信是生成式人工智能健康发展的必要条件,《安全基本要求》是《生成式人工智能服务管理暂行办法》在安全领域的具体支撑,也是近期生成式人工智能领域最重磅的一个文件,将推动行业进一步健康有序发展,应用加速落地。
全国网络安全标准化技术委员在去年10月发布《安全基本要求》征求意见稿后,得到了社会各界积极反馈。浙江大学、北京中关村实验室、阿里巴巴、科大讯飞等均参与了文件起草。
企业走在大模型应用最前线,也最应践行大模型安全保障,以夸克为例,其于2023年11月发布亿级参数自研大模型,始终将安全性作为大模型产品的重要研发方向,具体体现在具备较好的世界观、价值观,对于明显的暗示信息,大模型能实现准确识别、正确回答或者给出合理指引。清华大学新闻与传播学院新媒体研究中心近日发布的《大语言模型综合性能评估报告》显示,基于搜索场景中积累的丰富场景和能力,夸克大模型在安全合规与公正性上展现出突出优势。
清华大学新闻学院教授、博士生导师沈阳指出,搜索引擎天然具有各种网络公开数据,在内容安全上经历了长时间考验,用户也提供了大量的查询需求交互,因此搜索与大模型的结合水到渠成。
(责任编辑:韩梦晨)