加入收藏 | 设为首页 | 会员中心 | 我要投稿 成都站长网 (https://www.028zz.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

可信可控可用 人工智能呼唤创新的 治理技能

发布时间:2022-12-16 10:01:10 所属栏目:动态 来源:转载
导读:   “人工智能改变了安全格局,进一步扩大了威胁,需要从多个层面进行风险管控。”在近日举办的第三届人工智能合作与治理国际论坛上,针对目前人工智能带来的风险和挑战,中国工
  “人工智能改变了安全格局,进一步扩大了威胁,需要从多个层面进行风险管控。”在近日举办的第三届人工智能合作与治理国际论坛上,针对目前人工智能带来的风险和挑战,中国工程院院士、鹏城实验室主任高文认为,应当在人的层面应加强伦理教育;在模型算法层面,期望它可信、可控、可解释并且被正当使用;在数据层面,期望数据具有充足的系统防护保证其安全。
 
  当人工智能进入从高速增长向高质量增长转变的新发展阶段,对人工智能技术的安全性和可靠性提出了更多新要求。
 
  在以“人工智能治理技术”为主题的第二场主论坛讨论上,与会专家共同探讨如何通过技术工具来实现人工智能可知、可信、可控和可用,以及如何将产业监管要求转化为技术解决方案,开发针对人工智能行业或应用的“治理技术”与服务。
 
  高文认为,强人工智能安全风险来源于三个方面,一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。对于这些,一方面要在设计及应用阶段采取预防和检测措施,另一方面要加强国际合作,相互取长补短,还要加强人才培养。
 
  近年来,人工智能应用领域进一步拓展,面对新兴技术可能带来的巨大收益和潜在风险,与会专家也高度关注其治理问题。
 
  从技术角度或技术应用角度,怎样才能实现人工智能技术的可用、管用乃至好用?高文说:“很多技术在发展过程中,过早说哪个不能用可能会抑制技术本身的发展,现阶段更多是从道德层面做引导,尽量把一些可能的风险抑制工具想明白。”
 
  聂再清认为,在创新和监管之间需要平衡,一方面控制技术、工具、创新的个人有责任保证工具或将创新控制在危险可控范围内;另一方面社会也要集体监督,确保某个出现问题的产品或技术能够回滚、撤销。
 
  “技术可解释性需要将技术发展与应用场景深度结合,在不同领域需要不同的可解释的能力及不同的可解释级别,让技术在应用场景下发挥最好的作用。”瑞莱智慧(RealAI)公司联合创始人及首席执行官田天指出。

(编辑:成都站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!