首页>热点 > 要闻 > > 正文

推动科技向善 算法模型迎伦理审查

2023-10-17 08:58:14
来源:中国高新技术产业导报 作者:李洋 评论:0
  10月8日,由科技部、教育部、工业和信息化部等十部门联合印发的《科技伦理审查办法(试行)》正式公布。

  《办法》明确, 高等学校、科研机构、医疗卫生机构、企业等是本单位科技伦理审查管理的责任主体。从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。值得注意的是,该《办法》提及的《需要开展伦理审查复核的科技活动清单》中,包括具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发。

  相关数据显示,今年以来,我国人工智能大模型迎来井喷期。截至7月底,我国累计有130个人工智能大模型问世,其中,仅今年前7个月就有64个大模型发布。不久前,首批通过《生成式人工智能服务管理暂行办法》备案的11个大模型产品获批向全社会开放服务。与此同时,对于算法模型伦理风险的关注也提上日程。人工智能算法模型的伦理风险表现在哪些方面?《办法》的出台,为国内人工智能大模型的发展提出了什么样的要求?

   推动算法模型健康稳定可控有序发展

  中国科学院科技战略咨询研究院研究员肖尤丹在接受记者采访时表示,科技伦理审查是防范科技风险的重要机制,更是有力保障特定技术领域健康发展的基础性制度。科技伦理审查既不是由行政机关实施的行政审查或者审批,也不是一般意义上的合法性或合规性审查,而是以特定责任单位、科技伦理(审查)委员会为主体,根据《科技进步法》和《办法》的规定开展的专业性、自律性管理活动。在一定程度上,科技伦理审查是应对前沿科技活动的风险弹性与法律制度、行政管理的刚性约束长期存在的冲突,弥补现有行政管理和法律规制局限性的产物。

  北京市京师律师事务所合伙人律师卢鼎亮认为,《办法》主要是要求对涉及到生命健康、生态环境、公共秩序、可持续发展等科技伦理敏感领域的人工智能算法模型科技活动进行科学伦理审查。人工智能算法的发展也要遵循科学伦理的要求,对涉及到科学伦理底线的相关科技活动需要进行客观评估和审慎对待,并且针对人工智能大模型科技活动中的不确定性和科技伦理风险进行审查评估。

  “《办法》的出台并非为人工智能算法模型的发展戴上‘紧箍咒’,相反该《办法》的出台能够促进人工智能算法领域的科技活动更加健康稳定可控有序的发展。”卢鼎亮说。

  “对于新兴技术和前沿科技领域发展而言,《办法》的出台更多地是为促进创新主体勇于探索未知和前沿提供了边界更为清晰、预期更为稳定的机制保障。”肖尤丹表示。

  肖尤丹认为,《办法》的出台必将有利于在科技伦理框架下加快包括人工智能大模型等前沿新兴技术的健康发展,也能在相关程度上促进相关领域开展更全面、更深入和更持续的国际科技合作,形成更公正、更透明、更负责任的前沿技术创新生态。

   伦理审查从哪些方面进行

  业界认为,从当前社会舆论的普遍认知来看,人工智能算法模型的伦理风险主要表现在以下几个方面:一是数据偏见与歧视。如果AI的训练数据不平衡或包含偏见,那么这种偏见可能会被模型放大,导致输出结果也存在偏见。这可能会对某些群体造成不公平的待遇或歧视。二是隐私侵犯。AI模型在数据采集、处理和分析过程中可能会侵犯到个人的隐私权。比如,没有得到明确许可的情况下进行的数据收集,或者使用数据进行精准的个人画像等。三是缺乏透明度。复杂的AI模型(例如深度学习模型)往往难以解释,缺乏透明度,使得外部很难理解它们的决策过程和逻辑。四是责任归属不明确。当AI模型犯错或导致某些损失时,谁应该为此承担责任可能并不明确。五是安全性问题:AI模型可能被恶意攻击者操纵或欺骗,从而做出不当或不安全的决策。此外,在某些应用中,例如自动化武器或决策系统,使用AI可能会触及深层的道德和伦理问题。过度依赖或与AI互动可能会影响人们的社交技能、心理健康或日常生活习惯等。

  肖尤丹认为,根据《办法》的规定,结合人工智能算法模型科技活动的伦理风险,科技伦理审查可能需要重点考虑两个方面:一是准确区分科技伦理审查与现有安全评估、算法备案、合规审查和行业监督机制的差别。二是根据所涉科技活动的类型和性质合理确定伦理审查重点。

   科技伦理审查适用范围

  肖尤丹分析,此次出台的《办法》第二条明确了科技伦理审查的适用范围,应当不能简单地将科技伦理审查等同于安全审查或者安全评估。另外,《办法》第五十四条还专门对科技伦理审查与之前已经存在的一些涉及技术的其他性质伦理审查规范之间的适用进行了规定,强化了科技伦理审查的专门性。

  “从伦理风险生成机制和场景看,科学技术研究活动与产品服务开发活动、技术应用活动的伦理风险和审查关注点显然并不相同。”肖尤丹表示,在研究过程中,应当更加关注研究人员资质、研究基础及设施条件是否符合相关要求,研究活动的科学价值、社会价值和研究目标的积极作用,关注涉及以人为研究参与者时的个人信息保护和知情同意,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定。在产品服务开发和技术应用方面,应当更关注算法、模型和系统的设计、实现、应用的公平、公正、透明、可靠、可控,以及数据合规、安全合规和用户权益保护。

  “作为本单位科技伦理审查管理的责任主体,人工智能企业应该评估拟开展的科技活动是否符合《办法》第三条规定的科技伦理原则,参与科技活动的科技人员资质、研究基础及设施条件等是否符合相关要求;伦理风险控制方案及应急预案是否科学恰当、是否具有可操作性。”卢鼎亮认为,此外,还应该评估个人隐私数据、生物特征信息等信息处理是否符合个人信息保护的有关规定;数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等是否符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案是否得当;算法、模型和系统的设计、实现、应用等是否遵守公平、公正、透明、可靠、可控等原则。

  中关村物联网产业联盟副秘书长、专精特新企业高质量发展促进工程执行主任袁帅认为,与传统科技活动的风险相比,人工智能算法模型的风险具有更高的隐蔽性和难以证明性。由于人工智能算法模型的决策是基于历史数据和模式,而这些数据和模式可能存在偏见和歧视等问题,因此其带来的风险可能会在长时间过程中逐渐显现。“因此,需要政府、企业、学术界和社会公众等多方协作,共同应对这一挑战。”袁帅说。

(责任编辑:范晓婷)

版权与免责声明:
①凡本站注明稿件来源为:中国高新技术产业导报、中国高新网、中高新传媒的所有文字、图片和音视频稿件,版权均属本网所有,任何媒体、网站或个人未经本网协议授权不得转载、链接、转贴或以其他方式复制发表。已经本网授权使用作品的,被授权人应在授权范围内使用,并注明“来源:中国高新网、中高新传媒或者中国高新技术产业导报”。违反上述声明者 ,本网将追究其相关法律责任。
② 任何单位或个人认为本网站或本网站链接内容可能涉嫌侵犯其合法权益,应该及时向本网站书面反馈,并提供身份证明,权属证明及详细侵权情况证明,本网站在收到上述文件后,将会尽快移除被控侵权的内容或链接。
③如因作品内容、版权和其他问题需要与本网联系的,请在该事由发生之日起30日内进行。电话:010-68667266 电子邮件:dbrmt#chih.org (请将“#”换为“@”)
排行
  • 全部/
  • 本月

编辑推荐


扫描添加 中国高新技术产业导报

(数字报)

扫描添加 中国高新APP客户端
扫描添加 导报微信公众号