科技向善驱动AI向前
智能时代进入新序章,AI(人工智能)等新技术与现实世界的各行百业加速融合。问题也随之而来:AI的奔涌浪潮将把我们带向何方?我们该以何态度面对技术变革?
9月5日至7日,2024外滩大会在上海举办。作为具有全球影响力的金融科技和前沿科技大会,外滩大会搭建了科技与人文的桥梁,成为观察中国AI产业落地和发展的重要窗口。
黄山景区智能体正式发布,讯飞星火医疗大模型、国盾量子的产品展示,中国科学技术大学网络空间安全学院是全球Deepfake攻防挑战赛的表演赛出题方之一……不少“安徽场景”“安徽元素”也同步亮相,与外滩大会一起展示着科技的人文深度和温度,让“科技越向前、越为每个人”不断走入现实。
更专业的AI
就像蒸汽机改变世界,源于它开始与轮船、火车、纺织机融合,AI领域也正在经历 “百模大战”到“产业应用”的关键演进。
数字分身辅助完成工作、脑机辅助深度睡眠、人造肌肉纤维给你温暖拥抱……在外滩大会,当下AI产业全球性热潮得到具象化展示。专家们预测,5年内产业落地是大模型技术持续进化的关键。
俗话说,“专业的事情,交给专业的人去做”。每个人和每个行业的需求都是独特的,对于赋能千行百业的人工智能来说,更专业的问题,可能需要更专业的AI来解决。
因此,推动大模型从通用能力走向个性化应用,是AI行业的核心命题之一。
在本届外滩大会上,黄山景区联合支付宝以蚂蚁百灵大模型为技术底座,首次推出了具有“空间”服务理念的“黄山空间智能体”,黄山景区也因此成为国内首个“全程AI伴游”景区。
智能体作为生成式人工智能的一种产品形态,是当下大模型应用的核心方向,能让大模型长出“手和脚”。而空间智能体是以“AOI”(Area of Interest)为主要的服务组织和呈现方式,当智能体感知到用户已进入黄山景区空间范围内,便会通过AI分析并推送用户最可能需要的服务。
例如,购买门票后的用户在出发前,“黄山空间智能体”就会告知景区温度、穿衣推荐,智能推荐路线攻略;当用户到达景区门口,会自动调取门票二维码;当识别到用户开始爬山,会为用户讲解沿途每个景点;当用户到达景区出口,可一键生成旅行的趣味数据。此外,旅途中常用的共享单车、网约车等服务,都可以快速唤起打开。
“在AI发展浪潮下,文旅行业也正在开启并经历一轮前所未有的技术和场景革命。”黄山旅游发展股份有限公司董事长章德辉介绍,相对于传统的“一码游”“一机游”模式,“黄山景区智能体”是集成了大模型技术、文旅知识库、大数据算法、语音交互并可实现自主学习、自我进化的最新应用产品,“虽然是探索尝试的一个初阶产品,还需持续迭代升级,但这标志着我们在文旅产业数字化转型方面又迈开了革命性的一步。”
“科技人文之问”的启示
人类历史上的每一次技术革新,都是“兴奋”与“焦虑”同在。
如何应对AI与人类抢饭碗?人类的思考力会因为AI退化吗?“人机共生”时代还有多远?AI可能超越工具属性,获得意识,甚至建立AI文明吗?……从外滩大会发布的科技人文十问中可以看出,大众对AI的感情更显复杂,带有不少的技术焦虑。
未来向上向前,科技向善向美。无论突破性技术再怎么变革,以人为本始终是首要原则。
在外滩大会现场,12岁就失去右臂的24岁男青年周键,借助人工智能和脑机接口技术,用仿生手弹奏了一首钢琴曲《大鱼》,让观众对技术发展服务人类福祉有了直观感受。
值得注意的是,新的科技变革带来新场景、新业务、新市场的同时,也在科技伦理层面带来了前所未有的风险和挑战。如何在促进AI技术快速发展的同时,又确保其安全性、可靠性和可控性,让AI更负责任地造福人类社会?
以AI大模型为例,目前大模型正在各行各业加快落地,特别是对医疗、金融这些严谨行业的重塑力度是前所未有的,但这些严谨行业也是对伦理规范要求最高、伦理关系最复杂的领域。
讯飞医疗研究院副院长赵景鹤在外滩大会上分享了讯飞星火医疗大模型目前的应用进展以及安全伦理探索。对于大模型在医疗场景应用面临的问题,他认为,“主要是数据隐私、知识产权和道德责任三大问题,只有让大模型真正解决这些问题,才能真正辅助医生、患者、科研等各个场景”。
“从解法上,不仅需要政府层面进行监管、立法,为大模型的落地进行合法性、合规性的保驾护航;企业还要遵守医疗的本质,采取措施加强数据保护、获得必要的版权授权、确保模型的公正性和合规性,同时提高透明度以及加强公众教育。”赵景鹤说。
作为安徽重要的科创企业之一,国盾量子此次也展示了多款与办公信息安全相关的产品。“比如我们这款蓝牙耳机,融合了国盾量子自主研发的语音通讯隐私保护技术,可以有效保护用户在通话、语音消息留言等过程中的隐私信息,让用户在沟通交流中更加安心。”国盾量子方案技术总监张如通介绍。
在如何确保科技始终造福于人类福祉上,一些专家呈现更为乐观的态度。“我们今天所担心的许多问题,或许并不是最难解决的,真正的挑战可能是我们还未曾想象到的未知问题。要实现我们期望的由人工智能驱动的未来,最好的途径之一就是积极参与其中。”著名未来学家凯文·凯利在外滩大会上说。
用AI治理“AI诈骗”
随着AI技术的飞速发展,利用深度学习算法实现音视频内容的模拟和伪造的深度伪造技术(Deepfake)也日益成熟,近年来发生的“AI换脸诈骗”等恶性事件就引发人们对技术应用风险的思考。
利用AI技术精准识别及防范“AI换脸”风险,“用AI打败AI”,或许是一种有效途径。不过,AI造的假能被AI辨别出来吗?
一场聚焦“AI换脸”技术欺诈风险的比赛给出了答案。在外滩大会AI创新赛·全球Deepfake攻防挑战赛的表演赛上,由中国科学技术大学网络空间安全学院和蚂蚁数科天玑实验室联合出题,选手们用各自研究的AI模型对被用AI修改过的图像和视频进行检测和识别。
在图像赛道中,肉眼真假难辨的9张图,选手却需要用自己的参赛模型给出每张图片的伪造概率值,并对概率值最高的2张照片与正确答案进行比对。在视频赛道环节,选手同样要通过AI模型来辨别视频真伪。
值得注意的是,现场选手比分上,在一些难度一般的赛题上,双方结果比分接近,伪造识别率几乎都在80%以上,但是在一些高难度赛题上,模型结果差异悬殊。
现场有人发问:“为什么肉眼觉得一眼假的画面,AI却不能完全答对?而肉眼难以辨别的画面,AI反而1秒识别?”
对此,新加坡科技研究局前沿人工智能研究中心首席科学家周天異认为,人类在判断图像是否伪造会依赖直觉和逻辑,比如其他人的人脸换到电影演员的脸上,人类一眼便知,AI却不了解背后的故事。但AI不像人类易受情绪干扰,它会一丝不苟地完成指令。从这个角度看,AI在工作效率和稳定性上比人类“高出一筹”。
不过,研发检测算法,只是遏制深度伪造技术滥用的方式之一。赛事出题人之一姚伟斌坦言,这种方式相对滞后。要从根源上防范欺诈行为,应从标准和立法角度,要求给AIGC内容建立通用标识,比如每一张AIGC生成的视频或图片都在文件信息里带一个签名或水印,这样平台管理更有依据。
“对于大众来说,深度伪造现在很有可能并且已经逐渐走入我们的生活当中,甚至是对人的隐私进行泄露。”中国科学技术大学网络空间安全学院周文柏教授建议,不要轻易在公共场合展现自己的人脸数据,尽可能避免人脸数据的泄露,“随着合成技术越来越好,对我们的欺骗也会越来越深,但只要我们能够保持警惕,还是能有很大的概率不受到诈骗的危害。”