刚刚闭幕的2023年世界人工智能大会上,生成式人工智能(AIGC)——一种可以诞生新的内容的人工智能技术——迅猛发展带来了铺天盖地的全新应用,也彰显着AI的跃进式提升。不管承不承认,AI即将全面渗透我们生活的方方面面中。而它在特定场景中或会引发的隐私泄露、安全风险等诸多问题值得我们高度重视,采取措施应对迫在眉睫。
今年以来,诸多业内人士都谈到了AI的监管与风险问题。特斯拉创始人马斯克此前就曾呼吁暂停GPT研发,以减少对人类造成的潜在风险。这次大会的视频发言中,他也重申表示,有局限的人工智能和全面人工智能完全不一样,全面人工智能比人类聪明的多,现在很重要的一点是,如何对AI进行监督。
图灵奖得主、Meta AI团队首席人工智能科学家杨立昆也提了AI风险。他说,可以通过设置目标做到AI可控,比如设定让它不要伤害别人,不要出现欺骗或支配人类的行为,让它诚实,让它屈从于人类,这样这些AI系统将完全可控。
如果说,业界大咖担心的是AI在深层次上对人脑的替代,从而延伸至对人的替代。但是,已经有一种苗头出现,那就是AI可以对降低犯罪门槛起到一定的作用。
从现实案例来看,知名歌手孙燕姿已险些被AI“抢了饭碗”。改造后的“AI孙燕姿”不仅可以唱自己的歌,还能二次创作其他知名歌手的歌曲。又比方,在AI的“加持”下,电信诈骗中犯罪分子可以轻易冒充他人的声音和外貌来进行语音和视频,继而博取信任,类似案件也已在国内外陆续出现。
如此强大的新技术落地,大多会使得既有监管更迅速地面临挑战,所谓机遇巨大的同时风险也并存,因此新的规则制定尤为迫切。此时此刻,人类必须即刻行动,给人工智能及时划出“红线”和“底线”,不能一味地为技术而技术,一味地只追求先进和效率。
首先,政府应完善人工智能伦理准则及问责机制,实施人工智能伦理审查,保障技术应用的公平公正,引导各界自觉遵守AI法律及伦理规则。
就在AI监管已经刻不容缓的关键时期,全球主流国家对于AIGC的态度也越发谨慎。据报导,美国已经开始研究对ChatGPT等人工智能工具进行审查,而欧盟即将出台的《人工智能法案》则采取了一种基于风险程度对人工智能系统进行分类管理的思路。
今年4月,我国国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,内容的真实性、训练数据的安全性等备受关注的话题皆在其中。随着我国AIGC领域首份政府文件的面世,产业也有望理顺健康的发展逻辑。
其次,企业应当不断提高人工智能系统的透明度和可解释性,负责任地披露人工智能的相关数据及算法的运行方式。
所有企业的大模型,其对于数据收集、内容产出,以及对信息安全等都会有一定程度上的风险。AI的判断是基于算法,而这些算法的输出结果又是建立在之前的数据之上。因此,如果数据存在偏差,相应AI的输出结果就存在着误差风险,一旦涉及到教育、投资、医疗等领域,就会产生较大的风险。
第三,我们也建议在一定程度上对AI的发展以及其对人工的替代,采取降低速度、放慢节奏的方式,尽量做到循序渐进。
今年3月末,意大利政府数据保护局已经率先宣布暂时禁用ChatGPT,并对该人工智能应用涉嫌违反隐私规则展开调查。此后,德国、加大拿、法国、爱尔兰等也相继释放出类似信号。对于AI的暂时性“刹车”尽管可能会失去一些效率,但可以防范技术失控,让我们做好充分的应对准备,搭建好有效的治理框架。
最后,智能可以是人工的,但智慧的最终决策权必须牢牢掌握在人类手里。为了保证在重大决策上人类必须身处决策环中,人工智能发展必须处于人类的监督和控制之下。只有引导其技术向上向善,始终在法律“红线”和伦理“底线”内运行,才能充分发挥出人工智能的自身潜力和价值,不断提升广大人民群众在AI领域的获得感、幸福感、安全感。