7 月 7 日下午消息,2023 世界人工智能大会期间,在“聚焦?大模型时代 AIGC 新浪潮 — 可信 AI”论坛上,蚂蚁集团联合清华大学发布 AI 安全检测平台“蚁鉴 2.0”。
蚁鉴 2.0 可实现用生成式 AI 能力检测生成式 AI 模型,可识别数据安全、内容安全、科技伦理三大类的数百种风险,覆盖表格、文本、图像等多种数据和任务类型,是业内首个实现产业级应用的全数据类型 AI 安全检测平台。
在该论坛上,蚂蚁集团同时宣布,“蚁鉴 2.0”全面开放,面向全球开发者免费提供 AIGC 安全性、AI 可解释性、AI 鲁棒性三项检测工具,可服务于数字金融、教育、文化、医疗、电商等领域的大规模复杂业务场景。
蚂蚁集团大安全事业群技术部总裁李俊奎表示,“生成式大模型是一种‘深黑盒’技术,‘蚁鉴 2.0’通过智能博弈对抗技术,模拟黑产以及自动化生成海量测试集,可实现‘生成式机器人’对‘AIGC 生成式模型’的诱导式检测计算,很像一个 24 小时不眠不休的‘安全黑客’在找茬大模型,从而找到大模型存在的弱点和安全问题所在。”
据了解,“蚁鉴 2.0”集成了蚂蚁近 10 年可信 AI 实践、1000 余项可信 AI 专利,支持零编码测评。开发者通过 API 接口,将 AI 模型接入蚁鉴,就可以一键识别和挖掘模型漏洞。
此次论坛上,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同发起《AIGC 可信倡议》,围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建 AIGC 可信发展的全球治理合作框架,采用安全可信的数据资源、技术框架、计算方法和软件平台等全面提升 AIGC 可信工程化能力,最大限度确保生成式 AI 安全、透明、可释。
广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。