[[441503]]
要配资
【环球网科技报道 记者 王楠】说到AI,首先你会想到的是什么?是九段天才棋手柯洁大战AlphaGo?是自动驾驶?还是跟朋友聊到某个话题时手机秒推送的同类广告? 抑或是让父母都认不出来的“易容神器”?
从1950 年图灵之问到如今产业的蓬勃发展,人工智能技术早已渗透到人们生活的方方面面。但迅猛发展的背后,那些因“黑盒模式”引发的技术不可控、数据安全、隐私泄露等问题却时有发生。人们似乎对人工智能技术的“无所不能”,从最初的全面肯定转变为冷静后的困惑、担忧与思考。面对科技高速发展带来的信任危机,人们究竟该如何应对?
首先,我们要搞清楚,何为可信任AI?“可信任AI实际上是通过底层技术框架解决人工智能应用过程中可能存在的多类问题,由此建立可靠的人工智能生态。”中国信息通信研究院华东分院人工智能与大数据事业部主任陈俊琰在12月14日举办的“谈云说AI”技术产业沙龙上表示。
事实上,近年来人脸识别被黑产盯上、买卖隐私信息等各类围绕用户个人隐私数据产生的安全问题常见报端,公众对于隐私保护、数据安全等问题关注程度也在不断提高。“如今信息多源且无法在短时间内追本溯源,如果数据使用存在监管漏洞就会直接导致个人隐私泄露甚至产生直接财务损失。”陈俊琰进一步分析了目前AI技术中的信任危机。
与此同时,AI信任危机还可能引发比较严重的人身安全问题。“由于AI技术处在一种黑盒模型基础上,在一些关键领域,例如医疗诊断、自动驾驶等这种性命攸关的行业中,如果出现信任危机就会产生十分可怕的后果。”京东探索研究院的算法科学家何凤翔分析说,这些危机会对行业发展、应用落地,都会产生巨大影响。
在此背景下,寻找人工智能时代隐私保护、政府监管、商业诉求的平衡点,已经成为产学研各界迫切需要解决的问题。华控清交信息科技(北京)有限公司标准负责人、战略总监王云河则认为,在推进可信AI建设的过程中需要各方共同努力。“从法律层面来说,目前有数安法和个保法来为数据安全提供保障,这是可信任AI的硬手段;下一步就是完善行业标准化,可以被认为是可信任AI的软措施,二者缺一不可、相辅相成。”
谈及近年来国际上可信AI的相关政策或者是标准落地情况,陈俊琰总结道:“目前国际上主要是以指南及法案的形式对人工智能的可信度进行规范,例如2018年《可信人工智能伦理指南草案》的发布、2019年《可信赖人工智能道德准则》等;同时也有在标准制定上的探索,例如构建人工智能管理框架,对可信AI进行监管以提升信赖度。比方说今年发布的《关于识别和管理人工智能歧视的标准提案》、《人工智能风险管理框架》等。”尽管国外的可信AI做到了法规和标准先行,但也存在不够灵活,容易产生’一刀切’的问题。
对此何凤翔则指出,随着人工智能可信理念逐渐成为全球共识,在可信AI的技术攻关和标准研制方面,京东探索研究院和信通院白皮书的思路一脉相承,它要确保人工智能的公平性、可解释性、稳定性和隐私保护的同时,保障算法可被人信任,而这也将成为未来人工智能产业健康发展的必由之路。“京东从基础理论出发来研究最前沿的问题,从这些理论问题、理论结果出发,设计新的可被信赖的全新AI算法,再尝试把这些AI算法应用到产品中去,完成技术的最终落地。”
与会专家们纷纷表示,目前无论是理论研究还是产业实践,可信任AI都还有很长的一段路要走。“可信AI涉及范围广泛、实操任务复杂,很难由一家企业或者机构凭借一己之力带来质的创造与飞跃,所以产学研用全链条协作是关键;未来业界需构建成熟且开放的生态系统,聚众家之力才能带来更多技术、标准以及实践层面的突破。”何凤翔说。
综合来看,目前我国在可信AI建设方面,正在从政策、生态、法律、标准制定等方面综合发力,例如《国家新一代人工智能标准体系建设指南》、《促进可信人工智能发展倡议》等文件的出台。除了监管部门的通力合作,以信通院、京东为代表的重要机构以及头部企业,都在努力推进行业倡议、标准研制等工作,未来定会有更多积极进展。