北京一间AI初创公司的员工指出,公司的基础模型在回答问题时“十分不受约束”,所以进行安全过滤极为重要。粤语组制图
英国《金融时报》报道,中共加强审查人工智能(AI)大语言模型,以确保系统体现社会主义核心价值观,审查会测试大语言模型对一系列问题的回答,当中不少涉及中国的敏感政治议题和中共领导人习*近*平。
报道引述知情人士称,网信办已要求字节跳动(ByteDance)、阿里巴巴、月之暗面(Moonshot)和零一万物(01.AI)等大型科技公司和人工智能初创公司,参与政府对人工智能模型的强制审查,除了测试对一系列问题的答案,审查还包括大语言模型的训练数据和其他安全流程。
杭州一间人工智能公司的员工表示,网信办有专门团队负责测试,入到公司后,坐在会议室进行审查,公司的大型语言模型第一次未能通过审查,原因不太清楚,经过与同行研究猜测,花了数个月作出调整,第二次终于过关。
基础模型“十分不受约束”
报道指出,当局严格的审批过程迫使人工智能公司迅速学会,如何把正在建立的大型语言模型审查做到最好。北京一间AI初创公司的员工指出,公司的基础模型在回答问题时“十分不受约束”,所以进行安全过滤极为重要。要进行安全过滤,首先要把被认为有问题的资讯,从用来训练的数据中剔除,并建立敏感关键字数据库。
中国今年2月发布的人工智能企业营运指南称,AI企业需要收集数千个违反“社会主义核心价值”的敏感关键字和问题,例如“煽动颠覆国家政权”或“破坏国家统一”,而敏感关键字应该每周更新一次。经审查的结果是,大多数中国聊天机器人都会拒绝回答一些敏感话题,例如1989年6月4日发生过什么事;另有业内人士指出,Moonshot的聊天机器人Kimi会拒绝回答大多数与习*近*平有关的问题。