编译/黄竣凯
随着人们越来越担心与人工智慧(AI)大型语言模型(LLM)相关的风险,ChatGPT 背後的AI新创公司 OpenAI宣布,其安全团队的重要主管 Aleksander Madry 将领导一个新的研究项目,成为 OpenAI 持续努力加强其安全措施的一部分,但该公司拒绝透露有关该项目的详细内容。
OpenAI准备「新研究项目」
据报导,OpenAI 执行长 Sam Altman 在社群媒体平台 X 上表示,「Madry正在进行一个新的且(非常)重要的研究项目,」并将暂时辞去在AI安全准备部门的职务,由负责AI安全准备与协调的Joaquin Quinonero Candela和OpenAI 安全系统主管 Lilian Weng接替他的职责,Altman也补充道,「作为统一我们安全工作的一部分,Candela和Weng正在接管准备团队。」
更多新闻:免费体验GPT-4o mini 有哪些方法?
OpenAI设立安全委员会
随着AI在线上和商业环境中变得越来越普遍,全球都在推动监管以确保其安全使用,为了回应这些日益严重的担忧,并指导公司在开发通用人工智慧 (AGI)上的安全和道德决策,OpenAI 最近也为其董事会成员设立了安全委员会,OpenAI表示,其委员会将在AGI取得进展之前,协助提供安全和道德决策资讯。
AI采用率增长快速
监於AI正在在各行业的快速采用和整合,该公司积极主动的安全措施非常重要,根据研究分析公司GlobalData AI高层简报显示,到2030年,全球AI市场规模将超过1兆美元,从2023年开始实现39%的复合年增长率,而在一项 2024 年调查中,超过 20% 的企业回答说,他们工作中的AI采用率已经很高。
参考资料:verdict