5月22日的午后,腾讯研究院与新加坡管理大学数字法研究中心(简称SMU Centre for Digital Law)共同承办了一场名为“生成式AI发展:应用、治理及社会效应”的AI与社会研讨会,该活动在新加坡管理大学成功举行。
近百位来自我国及新加坡的业界与学界精英齐聚一堂,对生成式人工智能的技术走向、产业应用、监管机制以及社会伦理等关键话题进行了深入交流,共同探讨,旨在为打造一个开放、共享、健康且可持续的人工智能发展环境及社会形态寻求有效的策略和思路。
腾讯集团的高级副总裁郭凯天作为主办方代表发表了欢迎讲话,他指出,人工智能不仅仅是一场技术革新,更是一场对人类、社会与智能之间关系的根本性转变。我们正处于技术迅猛发展的关键时期,大模型技术的迅猛发展正促使人工智能从“认知”向“行动”转变,成为人类的真正智能伙伴,同时也在深刻地改变着社会的结构和价值观念。
腾讯集团高级副总裁郭凯天致辞
郭凯天提出,人工智能应尊重人类在价值创造方面的独特地位,AI的核心价值并非仅体现在其外观的酷炫,而更在于其实际应用中的便捷与信赖。因此,腾讯公司极为重视构建一个开源且透明的技术环境,推崇一种开放、参与与监督相结合的治理方式,旨在推动在AI时代建立起坚实的信任体系。他表示,AI文明的新篇章才刚刚掀开序幕,腾讯乐意与各路伙伴携手并进,共同构建一个既重视技术发展又注重人文关怀、既开放又包容的崭新未来。
生成式AI加速发展,治理需同步演进
会议上半场围绕“生成式AI的行业应用趋势”展开。
在主旨演讲环节,新加坡国立大学人工智能研究所所长Mohan Kankanhalli教授以《生成式人工智能的挑战与前景》为题,他阐述了当前生成式AI领域主要涉及三大技术方向,分别是大型语言模型、视觉语言模型以及扩散模型。在图像、音频等多模态生成领域,扩散模型因其卓越的生成效果实现了重大突破,并显现出广阔的应用潜力。
他观察到,尽管生成式AI拥有巨大的发展潜力,然而它仍存在诸如幻觉现象、控制精细度不足以及真实知识的有效整合等众多技术挑战。此外,它还引发了诸如隐私泄露、版权纠纷、公平性问题以及虚假信息的广泛传播等一系列社会风险。他着重指出,在确保模型性能不断提升的同时,必须强化数据管理和责任制度,以促进生成式AI在创意产业、教育以及就业等领域的长期稳定发展。
Mohan Kankanhalli教授发表主旨演讲
紧接着,腾讯光子工作室群的高级研究员、柳天驰博士,就《语音领域生成式AI的进展与应对》这一主题进行了深入分享。柳博士全面阐述了语音生成技术(TTS)的发展,以及在大型模型支持下,表达能力和控制能力所取得的显著技术突破。他还展示了AI语音在音色、情感、语气、风格、方言等方面的最新研究成果。为了应对语音深度伪造技术引发的诸如身份欺骗和虚假信息泛滥等潜在的安全隐患,他详细介绍了音频水印技术和AI伪音检测等先进技术的应用途径。
柳天驰博士进行主题分享
腾讯研究院的高级研究员兼创新研究中心的负责人袁晓辉,新加坡管理大学的Aptos Move讲座教授、计算机与信息系统学院的副院长朱飞达,ABCDE风险投资机构的联合创始人Bman,以及WIZ.AI的董事长和共同创始人陆剑锋,亦对人工智能在行业中的应用趋势进行了深入的探讨。
AI行业应用趋势专题讨论
朱飞达教授着重指出,生成式AI的“组合性”与“协作性”将是数字经济未来发展的关键属性。他分析,随着开源生态系统的迅猛发展,生成式AI的应用门槛得到了显著降低,这为企业提供了利用本地数据进行系统构建的可能,从而有助于确保数据及AI的主权。他在个性化学习系统项目上交流了心得,着重指出,将任务细分与经典算法相结合,能有效增强模型的精确度。他还提到,在去中心化金融(DeFi)等场景中,无需人工干预的链上AI代理已经证明了其应用价值。此外,他对AI与Web3的融合表现出浓厚兴趣,并认为“协同智能与代币化经济”是Web3的核心,同时也是AI产业化和治理的关键路径。
Bman作为一位投资人同时也是一位连续创业者,他分享了自己对“超级个体”时代的见解,并对DeepSeek等开源模型所展现出的开发潜力给予了高度评价。他认为,AI Agent将成为下一代互联网的关键参与者,并预测未来将形成“Agent社会”。在这个社会中,Agent不仅能够独立完成各项任务,甚至能够拥有自己的身份、财产以及交易能力。他指出,当前众多创业公司只是将“大模型”作为外壳,缺乏核心竞争力。因此,他建议初创企业应迅速构建用户网络效应和商业模式防线。同时,他对“多Agent经济”模式抱有期待,认为未来应通过统一的协议来实现Agent间的互联互通,共同打造一个完善的Agent基础设施和生态系统。
陆剑锋选取了WIZ.AI的Voice Agent作为案例,深入分析了AI Agent在商业应用中的实际操作可能性和存在的限制。他认为,Agent的核心优势在于其是否能够完成任务的自动闭环。在语音交互领域,目前制约其广泛应用的关键问题在于响应速度和幻觉控制技术。他倡导了一种“以用户需求为核心”的创业理念——即以明确的客户需求为基础来打造产品,并通过积累高质量数据和定制化知识来达成竞争上的差异化。此外,他还强调,AI智能代理的融入将革新企业内部的协作模式,客服、人力资源等岗位将同时服务于人类和智能体,实现“人机协作”成为企业的新趋势。
研讨会的主持人袁晓辉提出了关于“人工智能是否正在导致业务流程的重新设计”的疑问。她概括性地指出,目前,生成式人工智能正逐渐从“工具属性”转变为“系统属性”,企业已经开始将智能代理融入工作流程,并对人机协作的界限进行了重新审视。她指出,尽管AI Agent的精确度尚未达到完美,但当前阶段的“人机协作”已经有效提高了工作效率;关键在于,随着技术的不断发展,我们还需同步加强管理、保障安全以及确保社会的接受度。
全球视野下的AI治理呼声
会议的下半程聚焦于“生成式人工智能的治理及其对社会产生的效应”这一主题。来自新加坡国立大学的大卫·马歇尔讲席教授、副教务长(负责教育创新)陈西文(Simon Chesterman)发表了题为《人工智能治理的悲剧》的核心演讲。
在演讲中,他强调尽管关于人工智能(AI)领域已经涌现出众多伦理规范、指导原则以及监管层面的讨论,然而,真正具有实效的治理机制仍然难以确立。主要障碍包括:首先,AI的研发与推广主要被私营企业所引领,这些企业有持续研发和推广更先进模型的动力,却缺少治理的积极性;其次,许多政府对于AI的监管持谨慎态度,忧虑严格的监管可能抑制创新、削弱竞争优势,或导致人才和投资流向监管较为宽松的区域;再次,历史上,国际合作机制(如国际联盟、联合国、国际原子能机构)往往是在危机时刻建立和发展的,然而在AI领域,目前尚未出现足以引发全球关注和紧急行动的危机,因此缺乏推动国际治理合作的“转折点”。若不妥善处理AI治理领域权力与利益的失衡问题,社会在构建起健全监管体系之前,或许将率先遭遇一场严重的危机。同时,他还着重指出,治理工作需重视确保技术决策既具灵活性又可逆转。
陈西文发表主旨演讲
新加坡德尊律师事务所的董事,同时也是新加坡管理大学数字法研究中心的行业研究员Cheryl Seah,就《生成式人工智能:实践视角》这一主题进行了分享。她强调,在人工智能的治理过程中,一个持续的矛盾现象是:尽管法律上允许进行某些行为,但究竟是否应当这样做,仍然是一个值得深入思考的问题。因此,众多AI治理框架旨在指导机构在打造与运用AI方案时,作出能够赢得用户信赖的决策。此类框架及配套资料助力机构洞悉在AI方案开发与运用过程中可能遭遇的风险,并在与第三方开发者或用户签订协议时(根据具体情况而定)合理分担这些风险,并在AI应用政策中实施有效的风险管理。2025年将至,届时将出现一个显著动向——即多份AI合同示范文本的公布。尽管这些文本主要是由政府部门为面向政府部门用户而编制,然而,对于私营企业来说,这些文本同样具有重要的借鉴意义。
Cheryl Seah进行主题分享
在新加坡管理大学数字法研究中心副主任刘汉伟的主持下,一场圆桌讨论紧随其后。新加坡社科大学法学院讲师、教务长讲座教授亚历山大·约瑟夫·吴伟明,新加坡国立大学科技、机器人、人工智能与法律中心(TRAIL)的创始人及联席主任丹尼尔·曾,新加坡管理大学杨邦孝法学院数字法研究中心的高级研究员李国栋,以及腾讯研究院的高级研究员曹建峰博士,共同探讨了生成式人工智能治理所面临的挑战。
“生成式AI的治理挑战”主题研讨嘉宾合影
Alexander教授提出,目前AI治理遭遇了三个主要难题:首先,区分“无知者”和“冷漠者”存在困难,尽管治理框架能指导那些希望负责任使用AI却不知如何操作的人,但对于那些只顾利益、不问是非的“冷漠者”却难以有效约束;其次,规范性与执法之间的差距明显,由于网络危害呈现全球性特点,但执法活动却受制于地域原则,导致规范性手段在实际应用中效果受限;最后,在应对网络伤害的策略上,目前多集中于供给端(如平台和不良行为者),旨在减少不良事件的发生,却忽略了需求端(即潜在受害者)的应对策略,即提升他们自身的抵御能力。未来的治理工作应当着力提升公众对于网络安全的认知,借助行为指导和精心设计的干预措施,打造出更加稳固的数字文化体系。
Daniel教授强调,人工智能的发展迫切需要适当的监管来引导,而不是抑制创新。法律作为预防AI被滥用和恶意使用的关键手段,其重要性不言而喻;因此,对AI的滥用和误用进行风险评估是合理且必要的。面对“深度伪造”图像及非自愿冒名等挑战,法律应当关注行为的根本性质而非技术层面,采取技术中立的态度进行规范,这样才能更好地适应技术进步并确保长期有效性。此外,他强调应重视大型语言模型可能导致的行业垄断现象,并提倡增强语言及文化的多元性和代表性。他坚信,中文大型模型的发展进程将有利于维护全球人工智能领域的生态平衡,并为来自不同语言和文化背景的应用提供更广阔的机遇。
Josh教授强调,目前全球人工智能治理正遭遇众多困难,其中最为显著的是“监管协同”的难题。由于人工智能监管体系尚在持续完善,尽管已有雏形,但各体系的发展路径却各不相同。尽管存在这些差异,但所有人工智能监管体系均追求一个共同目标,即在激发创新活力的同时,构建起有效的风险预防体系。为了达成这一愿景,监管机制应秉持灵活与创新的思维——在技术进步的浪潮中不断优化监管体系并给予指引,同时倾向于推动技术的采纳,进而通过更广泛的普及与认知,逐步增强公众对人工智能技术的信赖。
曹建峰博士强调,AI技术的应用可能引发自主决策能力的提升、情感功能的替代以及人类能力的增强,这些变化或许会带来新的挑战。因此,我们必须关注AI决策中可能出现的幻觉、偏见、错误和偏差等问题;同时,也要重视情感类AI应用,如AI陪伴,对人际和人机关系可能产生的影响,以避免AI削弱人类之间的真实联系;此外,在利用生成式AI提升效率和生产力的过程中,还需思考如何防止对AI工具的过度依赖导致人类自身思维能力的退化,转而通过在教育和工作中的合理运用,提升人的创造力,从而真正实现以人为中心和智能服务的目标。除此之外,随着AI技术的迅猛进步与演变,我们亟需构建一个更加灵活、高效的治理体系,这一体系不仅需要借助监管等外部手段,而且要着重于通过价值观念的统一、安全防护等内部模型,来塑造一个既安全又实用、无害且值得信赖的AI助手。
构建以人为本的AI协作未来
在会议的尾声阶段,腾讯研究院的院长司晓以及新加坡管理大学数字法研究中心的副主任刘汉伟,分别作为主办方代表,发表了总结性的讲话。
司晓院长在发言中表达了对当前人工智能发展的几点看法:首先,人工智能正迅速向通用人工智能(AGI)迈进,推动着经济和社会结构发生新一轮的深刻变革;其次,企业正从关注“用电量”和“用云量”转向以“token用量”来评估智能化水平的新阶段;最后,这一转变预示着“智力即服务”时代的到来。他也倡导社会各界齐心协力推动人工智能治理及承担社会责任,一方面需通过多学科、多领域协作,前瞻性地探讨并妥善处理人工智能技术带来的社会效应,另一方面还需进行前瞻性的设想和规划,塑造积极的AI发展蓝图,以此汇聚共识,引领技术朝着善的方向进步,进而保障人工智能的发展根基建立在人性、伦理与责任之上,使人工智能真正成为助力我们共创美好未来的力量,而非风险的来源。
腾讯研究院院长司晓致辞
Han-Wei教授在总结发言时,对各位嘉宾及听众的踊跃参与表示了衷心的感谢。他强调,本次会议就生成式人工智能及其对社会的影响以及未来国际治理议题进行了深入探讨,成果丰硕。会议内容广泛,涉及deepfake、AI代理、AI偏见等多个重要话题。他强调,SMU数字法研究中心持续聚焦数字经济和数字社会的热点问题,与行业内的合作伙伴共同举办了一系列活动和研讨。此次与腾讯研究院携手举办此次会议,更是深化了双方的合作关系,对未来的深入交流与合作充满期待。