全部语种
分享
来源:澎湃新闻
记者 邵文
·“我们目前没有考虑监管人工智能。在这个阶段,很明显我们希望能够向行业学习。在我们决定是否需要从监管方面做更多工作之前,要先了解人工智能的使用方式。”
·新加坡政府呼吁企业合作开发“世界上第一个AI测试工具包”AI Verify,谷歌、微软和IBM都已加入AI Verify基金会。
图片来源:由无界 AI 生成
在多国正在探讨监管生成式人工智能(AI)的背景下,新加坡政府表态称,并不急于制定人工智能法规。
当地时间6月19日,新加坡信息通信媒体发展局(IMDA)可信人工智能和数据主管李婉诗(Lee Wan Sie)在接受美国全国广播公司商业频道(CNBC)采访时表示:“我们目前没有考虑监管人工智能。”
不过,新加坡政府也在努力促进负责任地使用人工智能,呼吁企业合作开发“世界上第一个AI测试工具包”AI Verify。AI Verify包括一个AI治理测试框架和一个软件工具包,使用户可以对AI模型进行技术测试并记录过程检查,作为试点项目于2022年启动,科技巨头IBM和新加坡航空公司已参与测试。
近几个月来,随着聊天机器人ChatGPT风靡一时,对于生成式AI风险的担忧也越来越多。李婉诗认为,“在这个阶段,很明显我们希望能够向行业学习。在我们决定是否需要从监管方面做更多工作之前,要先了解人工智能的使用方式。”她同时补充道,监管可能会在稍后阶段引入。
“我们认识到,作为一个小国,作为政府,我们可能无法解决所有问题。因此,我们与行业、研究机构和其他政府密切合作非常重要。”李婉诗说。
据悉,谷歌、微软和IBM都已加入AI Verify基金会,这是旨在讨论AI标准和最佳实践,并就AI治理展开合作的全球开源社区。“微软对新加坡政府在这一领域的领导力表示赞赏。”微软总裁布拉德·史密斯(Brad Smith)在一份新闻稿中表示,“通过创建AI治理测试框架和工具包等实用资源,新加坡正在帮助组织建立稳健的治理和测试流程。”
“在AI方面,这个行业更加亲力亲为。有时,在涉及法规时,你会发现政策制定者对人工智能的想法与企业实际情况之间存在差距。”美国国家AI咨询委员会(U.S. National AI Advisory Committee)顾问哈尼亚·马赫莫迪安(Haniyeh Mahmoudian)告诉CNBC,“因此,通过这种类型的合作,专门创建这些类型的工具包,得到了来自行业的投入。这对双方都有利。”
在6月举行的Asia Tech x Singapore峰会上,新加坡通信和信息部长杨莉明(Josephine Teo)表示,虽然政府认识到人工智能的潜在风险,但它无法仅靠自身推动人工智能的道德使用,“拥有专业知识的私营部门可以有意义地参与,与我们一起实现这些目标。”
她说,虽然“对AI的发展存在非常真实的恐惧和担忧”,但需要积极引导AI走向有益用途,远离不良用途。“这是新加坡如何看待人工智能的核心。”
与此同时,一些国家已采取措施监管人工智能。6月14日,欧洲议会通过《人工智能法案》(AI Act),对ChatGPT等生成式人工智能工具施加更大的限制,开发者将被要求在发布前提交系统以供审查。法国总统马克龙上周也表示需要对人工智能进行监管。而英国正在组建人工智能基础模型工作组(AI Foundation Model Taskforce),以研究人工智能带来的安全风险,并筹备全球人工智能安全峰会,以期让其成为全球人工智能安全监管的地理中心。
国际律师事务所Clifford Chance科技集团亚太区负责人斯特拉·克莱默(Stella Cramer)表示,新加坡可以在该地区充当“管家”,允许在安全的环境中进行创新。Clifford Chance正与监管机构合作制定一系列市场指导方针和框架。
“我们看到的是围绕开放和合作的一贯做法。新加坡被视为一个安全的司法管辖区,在监管机构的支持下,在受控的环境中测试和推广你的技术。”克莱默说。
这个思路与OpenAI CEO山姆·奥特曼(Sam Altman)的想法似乎不谋而合。6月13日,奥特曼在新加坡管理大学(Singapore Management University)出席OpenAI全球巡回“炉边对话”活动,在现场详细阐述了如何管理AI风险。他认为,重点在于让公众了解和体验新的发展,这将确保在影响扩大之前发现并解决任何潜在危害。
“这比关起门来开发和测试一项技术,并假设所有可能的风险都已被识别和预防,然后将其发布给公众更有效。”奥特曼说,“你不可能在实验室里学到所有东西。无论为了将危害降到最低而对产品进行了多少测试,总会有人想方设法以其创造者从未想过的方式利用它。”他指出,任何新技术都是如此。
“我们相信迭代部署是做到这一点的唯一方法。”奥特曼补充说,逐步引入新版本也能让社会随着人工智能的发展而适应,同时对如何改进人工智能产生反馈。
新加坡目前已经启动了几个试点项目,例如金融科技监管沙盒或健康科技沙盒,供行业参与者上市前在现场环境中测试其产品。“这些结构化框架和测试工具包将有助于指导AI治理政策,以促进企业安全可靠地发展AI。”克莱默说。