2025-11-14 18:52:02
每經(jīng)記者|趙景致 每經(jīng)編輯|張益銘
人工智能的采用率正在上升,但信任仍是一個(gè)關(guān)鍵挑戰(zhàn)。
根據(jù)畢馬威KPMG最新數(shù)據(jù),相較于2022年ChatGPT發(fā)布前,如今AI(人工智能)普及率已經(jīng)顯著提升,但憂慮情緒也隨之上升,全球僅46%受訪者愿意信任AI系統(tǒng)。
許多先進(jìn)的人工智能模型被視為“黑箱”,即便是開發(fā)者也難以完全理解其決策邏輯。面對(duì)這種透明度缺失的情況,我們應(yīng)如何建立對(duì)人工智能系統(tǒng)的信任?近日,《每日經(jīng)濟(jì)新聞》記者(簡稱NBD)專訪了香港金融科技周籌辦商Finoverse首席執(zhí)行官Anthony Sar。
Finoverse首席執(zhí)行官Anthony Sar 受訪者供圖
“大語言模型至今其實(shí)仍不透明,即便對(duì)于其創(chuàng)造者也是如此?!盇nthony Sar認(rèn)為,建立信任需要強(qiáng)有力的人類監(jiān)督、透明的數(shù)據(jù)使用以及企業(yè)級(jí)的測試,與此同時(shí),當(dāng)AI出現(xiàn)嚴(yán)重錯(cuò)誤時(shí),責(zé)任應(yīng)由多方共同承擔(dān)。
NBD:許多先進(jìn)的人工智能模型被視為“黑箱”,面對(duì)這種透明度缺失的情況,我們應(yīng)如何建立對(duì)人工智能系統(tǒng)的信任?
Anthony Sar:大型語言模型的透明度仍未完全實(shí)現(xiàn),即便對(duì)其創(chuàng)造者而言亦是如此,如今的人工智能不僅能預(yù)測文字,還能理解概念——這既賦予了它強(qiáng)大的能力,也帶來了相應(yīng)風(fēng)險(xiǎn)。建立信任需要強(qiáng)有力的人類監(jiān)督、透明的數(shù)據(jù)使用以及企業(yè)級(jí)的測試。負(fù)責(zé)任的人工智能意味著,在技術(shù)能夠安全提升人類成果的領(lǐng)域部署它,而非取代人類的判斷。
NBD:訓(xùn)練數(shù)據(jù)中存在的社會(huì)偏見往往會(huì)傳導(dǎo)至人工智能上。在您看來,社會(huì)和科技公司應(yīng)采取哪些具體且可操作的措施,系統(tǒng)性地減輕甚至消除人工智能偏見,以確保其發(fā)展不會(huì)加劇社會(huì)不平等?
Anthony Sar:人工智能往往會(huì)反映人類生成數(shù)據(jù)中存在的偏見,但我們應(yīng)該建立更具包容性的人際聯(lián)結(jié)。例如,我們?yōu)楸敬谓鹑诳萍贾茉O(shè)計(jì)的人工智能社區(qū)主持人Samantha,在為參會(huì)者進(jìn)行匹配時(shí),僅關(guān)注雙方的共同利益,而忽略頭銜、國籍或影響力等因素。
Samantha通過發(fā)起原本可能不會(huì)發(fā)生的引薦,幫助打破了這一障礙。活動(dòng)吸引了來自120多個(gè)國家的參與者,Samantha基于共同價(jià)值而非曝光度為人們搭建聯(lián)結(jié)。這只是人工智能如何幫助減少壁壘、推動(dòng)以人為本的機(jī)會(huì)獲取的一個(gè)例證。
NBD:當(dāng)人工智能系統(tǒng)出現(xiàn)嚴(yán)重錯(cuò)誤(例如自動(dòng)駕駛汽車引發(fā)事故、醫(yī)療人工智能給出誤診)時(shí),該由誰為這一錯(cuò)誤負(fù)責(zé)?
Anthony Sar:人工智能的責(zé)任應(yīng)由多方共同承擔(dān)。就像交通安全依賴于司機(jī)、行人及監(jiān)管機(jī)構(gòu)共同遵守規(guī)則一樣,負(fù)責(zé)任的人工智能需要開發(fā)者、部署者和用戶各自承擔(dān)明確的角色。
我們已經(jīng)擁有監(jiān)管復(fù)雜系統(tǒng)的框架,通過標(biāo)準(zhǔn)制定、測試和執(zhí)行,這些框架同樣可以應(yīng)用于人工智能領(lǐng)域。
例如,我們在Samantha的設(shè)計(jì)中融入了“人機(jī)協(xié)同”模式,確保所有互動(dòng)均經(jīng)由活動(dòng)組織者與我們的團(tuán)隊(duì)審核后,再逐步擴(kuò)大自動(dòng)化應(yīng)用范圍。這種方式既保留了人類監(jiān)督,又讓人工智能能夠處理日常事務(wù),為平衡創(chuàng)新與問責(zé)提供了真實(shí)可行的實(shí)踐模型。
NBD:隨著人工智能能力的快速提升,人們對(duì)其被惡意使用的擔(dān)憂日益加劇,甚至有人擔(dān)心人工智能可能變得無法控制,超出人類的監(jiān)督范圍。您認(rèn)為這些是迫在眉睫的現(xiàn)實(shí)威脅,還是遙遠(yuǎn)的科幻場景?國際社會(huì)應(yīng)如何為人工智能的發(fā)展和使用劃定“紅線”,以應(yīng)對(duì)其可能帶來的“災(zāi)難性”或“生存性”風(fēng)險(xiǎn)?
Anthony Sar:與任何強(qiáng)大的技術(shù)一樣,人工智能既可用于造福人類,也可能被用于危害他人,就像核能一樣。人工智能可能在未來20年內(nèi)超越人類能力,因此治理至關(guān)重要,必須確保技術(shù)發(fā)展的方向始終服務(wù)于人類福祉。
我們認(rèn)為,靈活的、基于風(fēng)險(xiǎn)的治理模式是關(guān)鍵。需要注意的是,并非所有應(yīng)用場景都存在相同程度的風(fēng)險(xiǎn),在金融、醫(yī)療或公共安全等敏感領(lǐng)域,監(jiān)管必須像對(duì)持證職業(yè)那樣嚴(yán)格,確保每一項(xiàng)決策都經(jīng)過測試、驗(yàn)證并明確問責(zé)。但在創(chuàng)意類或低風(fēng)險(xiǎn)應(yīng)用場景中,應(yīng)允許人工智能在清晰的倫理準(zhǔn)則下更自由地發(fā)展。
封面圖片來源:受訪者供圖
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP