人心向背网人心向背网

安全是人工智能发展不可避免的核心问题

科技日报记者 刘艳 杨雪。安全

大型模型热潮持续。人工短短几个月,发展数十家国内公司宣布进入大型模型领域。不可避免近日,心问在上海举行的安全2023年世界人工智能大会成为集中展示,来自不同企业的人工30多款大型产品和技术亮相。

根据科技部新一代人工智能发展研究中心最近发布的发展《中国人工智能大模型地图研究报告》,“大数据” 大算力 结合强算法的不可避免大型人工智能模型在中国发展迅速。中国研发的心问大型模型数量在世界上排名第二,仅次于美国。安全目前,人工中国已发布了79个参数超过10亿的发展大型模型。

以大型模型为代表的不可避免人工智能技术的巨大潜力正在加速释放。抓住它带来的心问巨大机遇,警惕它的潜在风险和隐患,是当前行业的双向任务。

向上向善的技术应用。

据中国信息通信研究院估计,2022年中国人工智能核心产业规模已达5080亿元。

人工智能已成为世界上最活跃的数字技术创新领域之一,给人们的生产和生活带来了巨大的变化和便利,也带来了许多风险和挑战。构建安全可靠的人工智能是各行各业关注的焦点。

阿拉伯信息通信技术组织秘书长穆罕默德·本·阿莫在世界互联网会议数字文明“尼山对话”BBS上表示,建立一个安全可靠的人工智能系统,首先考虑数据隐私和安全、透明度、责任和问责、稳定性和灵活性。此外,还需要建立以人为本的设计,优先考虑人类福祉的道德框架。

全球移动通信系统协会首席执行官洪耀庄表示,只有在道德准则的约束下,人工智能才能真正改善世界。我们必须共同努力,建立一个可靠的环境,建立一个以人为本的方法体系,以确保人工智能对每个人都是可靠的、负责任的和公平的。最重要的是,它可以包容所有人。

加强对人工智能发展潜在风险的研究、判断和预防,维护人民利益和国家安全,确保人工智能安全、可靠、可控,是我国促进人工智能治理的方向。

早在2017年,国务院就发布了《新一代人工智能发展计划》,明确建议到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评价和控制能力;2030年,建立更完善的人工智能法律法规、伦理规范和政策体系。

虽然相关科研机构和科技企业在人工智能系统设计之初就考虑到了人工智能安全可控的风险,但技术应用往往难以一蹴而就。

中国科技大学公共事务学院网络空间安全学院教授左晓东表示,与传统风险相比,人工智能风险具有一些独特的特点。例如,人工智能高度独立,极大地依赖数据,还有算法黑箱和算法无法解释的问题,这使得人工智能的风险难以预测,而且有很多未知的东西。

为了应对可见的挑战和未知的风险,中国应加快建立人工智能领域的相关法律法规、伦理规范和政策体系,形成人工智能安全评价和控制能力,这是各行各业对中国人工智能发展的共识。

技术开发和安全可控双轮驱动。

百度创始人、董事长兼首席执行官李彦宏表示:“在过去的一年里,人工智能在技术、产品、应用等方面以‘周’为迭代速度向前迈进。大模型成功地压缩了人类对世界的认知,向我们展示了实现通用人工智能的道路。”。

今年3月,百度率先发布了大型语言模型文心。中国的大型模型创业浪潮正在飙升,社会各界对大型模型的怀疑也越来越多。然而,在百度看来,安全问题并不是大型模型带来的新问题。安全是相应产品和解决方案的必要选择。

“已迭代至3.5版的文心大模型,不仅是技术升级,更是安全升级。李彦宏介绍,文心大模型3.5版采用行业主流大模型基本能力评价方法进行评价,显著提高了数据质量、生成效果和内容安全性。

“在大模型之前的人工智能时代,我们发现人工智能本身就有所谓的内部安全。对象样本可能会攻击人工智能算法,在正常样本中加入少量对抗会误导识别结果。无论是数字世界还是物理世界,许多场景都存在这种情况。清华大学计算机系教授、清华大学人工智能研究所副院长朱军在最近的全球数字经济会议上指出,正在探索的第三代人工智能的新范式可能会有机地整合数据和知识,开发一个更安全、更可靠的人工智能框架。

朱军认为,AIGC,特别是ChatGPT,安全问题越来越严重,算法本身是否存在政治偏见和数字差距,数据收集过程中是否会侵犯知识产权,也是大模型时代的关键问题,可以从以下层面解决。

首先,从人工智能的基本尝试来看,学术界一直在探索第三代人工智能的新范式,希望将数据和知识有机地结合起来,开发一个更安全、更可靠的人工智能框架。其优点是安全、可靠、可靠和可扩展。

其次,提高安全评价能力,主要关注攻击评价、角色扮演和诱导欺骗评价、混淆指令欺骗评价、识别性能评价、数据安全评价、伦理安全评价。

此外,构建人工智能安全管理的有效工具,如人工智能本身的安全平台、安全评价、防御和整体情况评价,可以通过平台评价人工智能算法和服务。

安全互信计算起步。

正如北京智源人工智能研究院院长、北京大学多媒体信息处理国家重点实验室主任黄铁军所说,人工智能越来越强大。风险明显,日益增加,如何构建安全人工智能?我们仍然知之甚少。

面对这样的现实,行业需要思考和探索。

李彦宏说:“新技术的应用往往先于规范,只有建立健全保障人工智能健康发展的法律、法规、制度和道德,才能创造良好的创新生态。着眼未来,既要注重风险防范,又要同时建立容错纠错机制,努力实现规范与发展的动态平衡。”。

6月28日,火山发动机发布了“火山方舟”大型服务平台,为企业提供模型精调、评价、推理等全方位平台服务(MaaS,即Model-as-a-Service)。

火山发动机总裁谭福表示:“企业要使用大模型,首先要解决安全和信任问题。”,“火山方舟”实现了大模型安全互信计算,为企业客户保护数据资产安全。基于“火山方舟”独特的多模型架构,企业可以同时尝试多个大模型,选择更适合自身业务需求的模型组合。

与小模型“自产自用”不同,大模型的生产门槛很高,数据安全成为大模型时代的新命题。谭宇认为,企业最担心的是数据泄露;如果大型模型私有化,企业将承担更高的成本,模型制造商也将担心知识资产的安全。“火山方舟”的首要任务是确保大型用户、供应商和云平台相互信任。

据火山引擎智能算法负责人吴迪介绍,“火山方舟”推出了基于安全沙箱的大型安全互信计算方案,利用计算隔离、存储隔离、网络隔离、流量审计,实现了模型的机密性、完整性和可用性,适用于培训和推理延迟要求较低的客户。

黄铁军说,所有的探索都刚刚开始,我们面临着新的挑战,原来的经验和方法可能无法解决新的问题。

然而,从技术趋势和工业应用的角度来看,大型模型绝不是昙花一现的出路,而是影响人类发展的重大技术变革,是推动全球经济增长的引擎,是不容错过的重大战略机遇。

李彦宏说:“只有坚持技术发展和安全可控的双轮驱动,才能稳步前进。如果我们安全负责地控制人工智能的发展,大型模型将重塑数字世界,人工智能可以为中国经济乃至全球经济创造无与伦比的繁荣,改善全人类的福祉。”。

赞(43)
未经允许不得转载:>人心向背网 » 安全是人工智能发展不可避免的核心问题