根据今年发布的《全球数字经济白皮书(2024)》披露的数据显示,全球目前有3万家人工智能核心企业以及超过 1300个人工智能基础大模型。新的科技变革带来新场景、新业务、新市场的同时,也在科技伦理层面带来了前所未有的风险和挑战。在2024外滩大会“以善治促‘善智’,让AI更负责任”见解论坛上,人工智能产、学、研、用各界学者嘉宾,就共同探讨如何让AI更负责任、更好地造福人类社会。
AI治理可以“以史为鉴”
在中国工程院院士吴世忠看来,AI治理可以“以史为鉴”。
他认为,我们已经逼近了那个AI发展的“奥本海默时刻”,“当一个科学技术能够改变人类命运的时候,我们就必须要有忧患意识,”他从人类过去核控和疾控出发,分别对比了核控、疾控和AI治理的异同,他表示:“人工智能的治理和过去的核控、疾控都是人类发展历程中的‘奥本海默时刻’。在这个过程中,我们作为人类命运共同体,能够借鉴的经验很多,比如国际合作和多边协议以及透明度和信任机制的建设等。但与此同时,我们也要根据人工智能的特点,更加科学地进行治理。”
面对如此严峻的风险和挑战,有时学界也会有另外一种声音,我们是不是应该用更加谨慎的态度,给技术的发展“踩踩刹车”?清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长梁正则认为,我们可能要在更宏大的视角和时间尺度下看待 AI 技术的发展。
他以飞机和汽车的发展历程为例,证明了任何一种技术,随着技术能力的发展和科学的治理,这种技术带给人们的好处是要远远超过我们想象的。“人工智能技术处于产业化应用的初期阶段,从技术发展来看,其他技术在发展中同样经历过类似的问题。发展是硬道理,治理要为发展服务。”
严谨行业对伦理规范要求更高
人工智能大模型目前正在各行各业加快落地,特别是对医疗、金融这些严谨行业的重塑力度是前所未有的。与此同时,这些严谨行业也是对伦理规范要求最高、伦理关系最复杂的领域。在论坛上,企业界代表也分享了各自在大模型应用与安全伦理层面的探索和思考。
讯飞医疗研究院副院长赵景鹤分享了讯飞星火医疗大大模型目前的应用进展以及安全伦理探索,对于大模型在医疗场景应用面临的问题,他讲到,“主要是数据隐私、知识产权和道德责任三大问题,从解法上,企业需要采取措施加强数据保护、获得必要的版权授权、确保模型的公正性和合规性,同时提高透明度以及加强公众教育。”
蚂蚁集团资深副总裁、科技伦理委员会联席主席周志峰认为,AI的伦理建设需要适应三大趋势,“一是AI提供服务需要更加重视‘人情味’;二是AI伦理风险防控需要从‘显性风险’的被动防控向‘隐性风险’的主动防控过渡,三是AI服务要从提供对话交互升级到有效协同。”
他介绍到,为了应对这三大趋势,蚂蚁建立了一套识别用户意图及全链路风险的工具,能够准确捕捉提问者的真实动机,并构建了持续优化大模型输出的攻防体系;蚂蚁开发了X Sense 体系,及时对网络舆情、社会热点、越狱prompt攻击等因素做探查和归集,提升对“隐性风险”的主动感知和防控能力;打造覆盖数据集构建到模型应用全链路的负责任研发体系,并开放合作共建,广泛邀请各领域权威专家、知名学者组建科技伦理顾问委员会,与高校、科研机构开展伦理共建计划。
头图为外滩大会现场,劳动报记者陈宁摄