来源 | 中国企业家俱乐部
【资料图】
ChatGPT一经推出、全球爆火。但随之而来也面临来自美国监管机构、公众的数据、伦理争议。北京时间2023年5月16日,OpenAI 创始人兼CEO Sam Altman出席了美国国会召开的主题为“AI监管:人工智能的规则”的听证会。
Sam Altman在听证会上提出OpenAI在这方面的3个计划:
1、成立一个新的政府机构,负责审批大型AI模型。并对不符合政府标准的公司进行处理,包括吊销他们的AI“执照”。
2、为AI模型创建一套安全标准,用以评估其风险。AI大模型必须通过某些安全测试,例如它们是否能够“自我复制”或是“出逃(摆脱人类控制)”。
3、要求独立专家对模型在各个指标上的表现进行独立审核。面对ChatGPT带来的对现有监管体系的巨大冲击,各国纷纷开始讨论相关治理方案。美国和欧洲在生成式人工智能监管思路上,分为鲜明的两大阵营。
美国的“鼓励型”监管
美国以引领全球科技创新为目标,一直以来都对创新技术应用持宽松监管态势。
美国的政府机构对ChatGPT主要强调在伦理道德方面的监管,正在研究和制定针对ChatGPT的监管政策和指南,以确保ChatGPT的发展和应用符合法律法规和伦理标准。
2023年5月4日,美国政府宣布了一项行动公告,包括了3项旨在进一步促进美国在人工智能(AI)领域负责任的创新行动:
1、美国国家科学基金会宣布提供1.4亿美元资金,启动7个新的国家人工智能研究所,推进人工智能研发,以推动气候、农业、能源、公共卫生、教育和网络安全等关键领域的突破。
2、对现有生成式人工智能系统的公开评估。来自几家最大的 AI 生产商——Anthropic、Google、Hugging Face、Microsoft、NVIDIA、OpenAI和Stability AI,承诺对他们的 AI 进行公开评估,是否符合美国之前提出的《AI权利法案》。公开评估将向研究人员和公众提供有关这些模型影响的关键信息,并将使人工智能公司和开发人员能够采取措施解决这些模型中发现的问题。
3、管理和预算办公室将发布关于“联邦机构应如何使用人工智能系统的政策指南”草案。其中包括制定具体的使用政策,并授权机构负责任地利用人工智能推进他们的使命,加强他们公平地为美国人服务的能力。
以上措施,可以明显看出美国更加偏重于利用人工智能系统的发展,在全球经济中保持竞争地位、并满足国家安全需求。
欧盟的“保守型”监管
以欧盟为代表的国家,在数据保护和隐私上最为保守,其计划更新即将出台的全面人工智能法规——《人工智能法案》,对生成式AI生成图像和文本的智能模型制定限制性规则,同时,欧洲数据保护委员会(EDPB)发出质疑,称ChatGPT作为商业产品,利用网络信息自我迭代,应不属于合理使用范畴,且采用用户个人数据参与模型训练,不符合欧盟颁布的《一般数据保护条例(GDPR)》。
3月31日,意大利数据保护机构称对ChatGPT的禁止和调查后表示,该模型存在隐私问题。意大利不仅会阻止OpenAI 的聊天机器人,还会调查它是否符合通用数据保护条例。
此外,爱尔兰数据保护委员会也表示,正在与意大利监管机构跟进,以了解他们采取行动的依据,来保护本国用户的信息安全。
德国、法国等国家也可能对ChatGPT进行停用,并且德国相关组织表示已经与意大利相关组织进行了联系,并讨论了调查结果。
欧洲议会两个委员会5月11日通过《人工智能法案》提案的谈判授权草案,向立法严格监管人工智能技术的应用迈出关键一步。欧洲议会当天发表声明说,议会内部市场委员会和公民自由委员会以压倒多数通过欧盟委员会于2021年4月提出的《人工智能法案》提案的谈判授权草案。新文本将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。
保守的监管模式虽然有效地解决了信息泄露的问题,但也在很大程度上限制了ChatGPT的发展;“鼓励型监管”有利于AI技术的进一步研发,但是很可能存在监管力度小、效果不尽如人意的问题。由此可看出,生成式AI的监管困难并不在于“监管”,而在于如何让AI在有效监管下依然能迸发出创新活力。
不妨听一听产业界和组织的呼吁和倡议。
1、4月20日,代表14万多名作家和表演者的42家德国协会和工会敦促欧盟强化人工智能 (AI) 规则草案,因为ChatGPT对他们的版权构成了威胁。
2、美国新闻/媒体联盟代表近2000家印刷和数字媒体出版商正式发布了,生成式AI监管原则,包括知识产权、透明度、问责制、公平、安全和设计6大部分,适用于文本、视频、图片、音频等其他格式的AI生成内容。这也是美国第一家权威机构正式发布的生成式AI监管原则。
3、 OpenAI自身也发布了Chatgpt安全方法。Open AI要求人们必须年满18岁,或在父母同意的情况下年满13岁才能使用其产品。Open AI还研究验证选项,并禁止其产品用于生成仇恨、骚扰、暴力或成人内容等。同时,开放人工智能Open AI的大型语言模型是在广泛的文本语料库上训练的,这些文本包括公开可用的、许可的内容以及由人工审阅生成的内容。
4、5月9日,抖音发布《关于人工智能生成内容的平台规范暨行业倡议》,对创作者、主播、用户、商家、广告主等平台生态参与者使用AI创作做出了几项规范。第一,发布者应对人工智能生成内容进行显著标识,区分虚拟与现实。第二,发布者需对人工智能生成内容产生的相应后果负责。第三,虚拟人需在平台进行注册,虚拟人技术使用者需实名认证。第四,禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等。第五,禁止利用生成式人工智能技术创作、发布违背科学常识、弄虚作假、造谣传谣的内容。
中国的人工智能监管
目前多家中国企业纷纷推出大语言模型——百度文心一言、阿里通义千问、讯飞星火等。有学者提出,应基于实际国情出发,制定适合我国社会环境、产业发展和科技创新的AI监管政策。回顾我国互联网产业发展历程与监管经验,在互联网及“互联网+”这类新技术新事物新业态的发展初期,明确提出“最大限度减少事前准入限制,加强事中事后监管”,对于暂时看不准其发展前景的业态和领域,鼓励大胆创新,并在一段时间内予以观察,这种包容审慎的监管理念极大推动了我国互联网产业的飞速发展。
4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,这是国内首份专门针对AIGC的监管文件,其中提出了“利用生成式人工智能生成的内容应当真实准确”等多项规范要求。
这份AIGC监管草案于5月10日截止意见反馈。过去一个月,围绕征求意见稿的出台背景及其核心条款,业界学界有不少争论。有观点认为,面对生成式人工智能引发的人格权和知识产权方面的问题,有必要未雨绸缪,给AI立规矩。但也有观点提出,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或指定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。
标签: