• 首页 > 科技正文
  • 如何深化人工智能立法

  • 2023-11-21 09:57:47 来源: 中国网科技
  •   对外经济贸易大学兼职教授邵长茂在《数字法治》撰文指出,人工智能正在一点一点地当然也是迅速地颠覆着人类既有的社会结构、组织形式和生活状态。在这个过程中,一定会有大量的、意想不到的风险出现。对于这些风险,有两种应对方式:一种是搭建法治轨道,另一种是划出法治边界。

      搭建法治轨道,就是设定目的地,至少有明确的方向;严格的过程控制,以及标准化的流程;对发展规律的全面把握,加上完备的制度体系。比如,正在制定的欧盟《人工智能法案》要求在人工智能发展过程中进行前置规划和连续监督,以严格缜密的规范体系引导技术前行,这就是典型的轨道性立法。但是,对我国而言,人工智能立法宜采用法治边界模式而非法治轨道模式。这是因为,人工智能还处于质变前夜,方向未明,标准的制式监管既不现实更不合时宜。实际上,欧盟法案也建立了监管沙盒机制,允许并不成熟的技术与社会直接接触,通过监管上的极大松动和更加灵活的机制为人工智能发展拓展空间。

      划出法治边界,就是在法律上划出人工智能发展不能逾越的红线,并列明具体的负面清单。具体来说,应基于产业发展、权利保护、伦理捍卫三原则,分别从技术、社会和伦理的层面研究与应对风险。就技术层面而言,至少有三类风险:人工智能技术自身导致的不确定风险,人工智能偏离设计应用的风险,人工智能技术被非法使用、滥用的风险。就社会层面而言,至少有三类风险:算法歧视、深度伪造、错误信息等造成的混乱和失序,个体失业和社会失常风险,经济上的过分不平等和权力过分集中风险。就伦理层面而言,至少有三类风险:反人类的风险,异化人类的风险,奴役人类的风险。

      为了有效管控风险,可从三个维度建立类型化、立体式的监管体系,提升监管措施的区分度和颗粒度。一是区分应用场景。基于人工智能技术广泛应用于政务、金融、医疗、教育、交通、零售、物流等领域的实际,区分不同的业务场景和行业场景制定监管政策。二是区分清单内外。在清单内的应当适用许可制,并进行全程监管;在清单外的,可适用备案制,并进行重点环节监管。三是区分风险程度。对不同类别以及不同程度的风险进行分类分级,适用不同的监管政策。类型化的处理方式是由人工智能的特性决定的,有效的人工智能技术无疑就是一种“魔法”,能够带来颠覆性变革,让生活更美好,当然也可能更糟糕。人工智能立法应基于不同的风险情形,明确完全禁止、部分禁止、有条件开放、完全开放的范围,明确事前许可、事前备案、事后备案、完全自主的情形,明确全程监管、重点环节监管、无需监管的条件。 (陆琴 辑)

    (责任编辑:毕安吉)

    猜你喜欢:

  • 高端制造成引资高地 硬科技成关注焦点
  • 智能算力规模已超通用算力
  • 国产大飞机C919累计获得订单超千架
  • “三无”电子烟化身“可乐罐” 吸引未成年人“入
  • 智能时代看电视反而更麻烦了?
  • 平台定价应规则透明、逻辑一致
  • 技术突破、国产化加速 A股芯片板块有望迎来估值修
  • 工业信息安全产业保持高景气度
  • 来深圳光明科学城论坛,听大咖分享科技信息开辟产业
  • OPPO Reno10系列开售,销量创新高,2499元起长焦人像
  • 柔烘精洗,小天鹅本色系列洗烘套装让冬季衣物处理不
  • 云计算守护苏宁818方案揭秘:云资源调度、安全云双
  • F5发布全新AI驱动的应用和API安全功能 全方位护航
  • 大气污染防控形势严峻,TCL卧室新风空调多重防护保
  • 羊毛柔烘获世界制造业大会科技创新奖,小天鹅民族品
  • TCL新风空调618增氧减压挑战赛火热进行中,参与人数
  • 推荐阅读
    频道排行
    中国财经消费网   |    合作:gkjnet@qq.com
    Copyright © 2019-2023 CJ18.COM.CN All Rights Reserved 中国财经消费网 版权所有