东方网记者李欢8月30日报道:如果有一天人工智能武器化了,它会由谁掌控?这个世界还安全吗?人工智能发展给人类带来前所未有机遇的同时,也引发人们担忧,它可能会带来一些法律上的风险和伦理上的危机。
在今天上午的“2019世界人工智能大会法治论坛”上,11位法学法律界、人工智能产业界的重量级嘉宾作精彩分享,探讨人工智能发展与法治建设。
清华大学法学院院长申卫星指出,有关于人工智能的治理问题关系人类的命运,应当引起国际范围内的重视。
“如果有一天,人工智能武器化了,涉及的安全问题就会凸显。”申卫星以核能为例,核能已经发展成为了武器化的技术,人类命运或多或少系于其上,因此国际社会也一直对这项技术有所约束。“核能相对来说,入门门槛较高,成本也比较高,不是所有的主体都可以参与,但是信息技术,特别是人工智能领域的门槛、成本都相对较低,甚至有一些非国家的主体有较深的介入,我们应当关注到这方面的安全风险。”
申卫星介绍说,目前国际上有36份AI综合治理方案,涉及层面包括但不限于问责制、公平与非歧视、透明度与可解释性、隐私、安全等类型。而面对关系人类命运的大命题AI,我们更需要达成国际共识,并形成人工智能治理的国际公约,基于此设立专门执行机构。
中国社科院法学研究所副所长、研究员周汉华认为,人工智能的法治建设需要“既构筑安全底线,又放开发展上限”,“进入这样一个’无人区’,法治需要有灰度,避免简单的非黑即白。有灰度的法治和没有灰度的法治,基本制度禀赋根本不同。”
周汉华坦言,因为法治观念、管理体制、工作人员水平等方面的原因,我国网络法治还存在比较明显的缺乏灰度现象,不利于推动人工智能发展。要实现强度与灰度的统一,法治要有维度,不能单维度思考,也不能就法论法。地有四至,网有四维。人工智能法治要以底线思维防范重大风险,以创新思维引领持续发展,以法治思维确立法治权威,以共治思维推动系统解决。
斯坦福大学法学院荣誉讲师托马斯·卡特·鲁宾先生认为,人工智能深层改变我们的生活领域,而人工智能演进框架的监管与治理则是当今需要共同探讨的问题。目前社会部分人士对人工智能技术使用过程中个人隐私与数据安全问题存在争议。托马斯先生指出,值得信赖的人工智能设计必须反映植根于永恒重要的价值道德原则,以保持公正性、兼容性、透明度、可计量安全与可信赖。
继去年发布《人工智能与未来法治构建上海倡议》后,今年法治论坛上又发布了《人工智能法治蓝皮书》。《蓝皮书》搜集汇总了中国乃至世界有关人工智能法治发展、人工智能法学研究方面的战略、政策、法律、重大理论研究和实际项目应用等资料,进行深入分析与评估。旨在通过《蓝皮书》促进人工智能法治建设,为构建人工智能法治体系、营造人工智能法治生态,推动人工智能立法规范、法律体系、政策体系和伦理规范的建立,保障人工智能安全、可靠、可控、健康、持续发展发挥积极作用。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。