中国发布了一项针对提供人工智能(AI)服务的公司的安全规定草案,包括对用于人工智能模型训练的数据源的限制。
10月11日周三,国家信息安全标准化委员会发布了拟议中的规定,该委员会由来自国家互联网信息办公室(CAC)、工业和信息化部以及执法机构的代表组成。
生成式AI,比如OpenAI的ChatGPT的成果,通过分析历史数据获得执行任务的能力,并基于这种训练生成新的内容,比如文本和图像。
委员会建议对用于训练可公开访问的人工智能模型的内容进行安全性评估。内容超过5%的违法有害信息将被列入黑名单。这一类包括宣传恐怖主义、暴力、颠覆社会主义制度、损害国家声誉、破坏民族凝聚力和社会稳定的行为。
该法案还强调,中国互联网上经过审查的数据不得用作这些模型的训练材料。这一进展发生在监管机构批准包括知名搜索引擎百度在内的多家中国科技公司向公众推出人工智能驱动的生成式聊天机器人一个多月后。
自4月份以来,CAC一直要求企业在向公众推出基于人工智能的发电服务之前,向监管机构提供安全评估。7月,network 空 regulator发布了一套管理这些服务的指导方针,行业分析师指出,与4月份初稿中提出的措施相比,这些指导方针的负担要轻得多。
最近发布的安全法规草案要求,参与训练这些人工智能模型的组织必须获得其个人数据(包括生物识别信息)用于训练的个人的明确同意。此外,该指南还包括关于防止知识产权相关侵权的全面说明。
世界各国都在试图为这项技术建立一个监管框架。中国将人工智能视为渴望与美国竞争的领域,并制定了到2030年成为该领域全球领导者的雄心。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
原文地址"我国为训练生成式人工智能模型制定了更严格的规则":http://www.ljycsb.cn/qukuailian/207669.html。

微信扫描二维码投放广告
▲长按图片识别二维码