全国政协委员周鸿祎:关注通用大模型安全风险 建议制定国家标准

最新信息

全国政协委员周鸿祎:关注通用大模型安全风险 建议制定国家标准
2024-03-04 17:43:00
2024年伊始,Open AI公司正式发布其首个文本——视频生成模型Sora,人工智能技术迭代正在加速。
  作为安全科技领域的委员代表,全国政协委员、360集团创始人兼董事长周鸿祎非常关注通用大模型安全问题,他建议国家研究制定保障通用大模型安全的标准体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。
  从去年的ChatGPT到今年Sora,周鸿祎表示,这标志着人工智能对这个世界的理解又进一步,与此同时,安全问题随着技术的发展愈发凸显。通用大模型的安全意义重大,关系到技术研发落地全产业链的安全,微小的安全问题便有可能引发系统性的安全风险,因此更需要国家和企业重点应对和保障。
  “通用人工智能技术引发的复杂安全风险分为技术安全、内容安全和人类安全三个方面。”周鸿祎说,技术安全主要涉及大模型技术本身引发的安全问题,如网络、数据和生成内容的安全;内容安全则是对大模型的控制、滥用、误用和恶意应用等问题;而人类安全问题则是大模型强大后带来的安全可控问题。
  面对大模型的安全问题,周鸿祎建议,相关部门可采用揭榜挂帅等方式,鼓励并扶持兼具“安全和AI”能力的企业,更好发挥其解决通用大模型安全问题的重要作用。
  其次,现阶段将安全模块作为大模型外挂的做法已不可行,安全需要贯穿通用大模型的整个构建过程,确保安全措施在系统的整个生命周期中得到充分考虑和实施。他建议国家研究制定保障通用大模型安全的标准体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。
  相比民营企业以及其他各类组织,政府、央国企对通用大模型的应用具有更高的安全标准。他建议政府、央国企与兼具“安全和AI”能力的企业在大模型安全领域展开深入合作,发挥此类企业在人工智能安全领域的优势作用。
(文章来源:大河财立方)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

全国政协委员周鸿祎:关注通用大模型安全风险 建议制定国家标准

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml