守住產品底線防范人工智能
未來10-20年,人工智能技術將滲透到與人類密切相關的領域,如醫療、司法、生產、金融技術等風險敏感領域。如果人工智能技術出了差錯,它將帶來更大的系統性風險。"2020年12月29日,清華大學計算機系主任、中國科學技術協會全國委員會委員崔鵬在未來科學獎周舉行的"青年對話"上說。
活動期間,騰訊科技協會秘書長張倩表示,面對人工智能技術帶來的風險,我們首先要注意的是保持AI產品的底線,即避免技術危害。
在這方面,美團首席科學家夏華夏認為,需要在法律法規方面做很多工作,包括制定人工智能行業的標準和規范,以及從國家層面改進和頒布相關法律法規,以控制人工智能技術的發展。
在人工智能標準化實踐中,中國人民大學法學院副教授、未來法治研究所社會責任與治理中心主任郭瑞提出了兩項原則--人類根本利益原則和責任原則。
郭瑞承認,法律本身也有局限性,為了避免人工智能技術的潛在風險,管理者需要對人工智能技術有一個透徹的了解,以便對其進行有效的監管。"法律是建設包容性社會的重要工具,法律界必須與企業、技術和其他專家合作,才能實現依法管理人工智能技術的目標。
興業資本管理公司合伙人方元認為,核心數據平臺處于AI風險管理的重要地位。在互聯網和大數據時代,大平臺既是數據的收集器,也是數據的守護者。明確數據使用權的概念,對人工智能在全社會的發展具有重要意義。
人工智能技術的風險管理需要科技工作者、企業經理、政策制定者、相關法律專家和投資者的努力。"中國科學院計算研究所研究員單世光說。
除了保持底線外,與會者還提到需要澄清邊界,引導技術向好的方向發展。
崔鵬指出,犯錯誤對人工智能來說并不是唯一的風險,人們也會犯錯誤。目前,如果人工智能技術犯了一個錯誤,它是不可預測的,或者在犯了錯誤之后,人們會發現錯誤的機制無法從技術層面加以解釋。這涉及到人工智能在決策和行為上的邊界.
為了澄清界限,人工智能需要了解它會做什么,它不會做什么,人們需要了解人工智能能做什么,它不能做什么等等。崔鵬認為,如果邊界不被澄清,人工智能將犯更低級別的錯誤,并帶來更大的風險。
郭瑞認為,人工智能目前遇到的倫理問題其實是因為它遠未達到人類的智力水平,但它被賦予了為人類做出決策的責任。"有人以人工智能技術為借口,以科學的名義做出不道德的決定,這是錯誤的。"這取決于人們在需要作出決定的地方作出決定。
在2020年新冠肺炎流行期間,英國使用了一套算法來獲取學生分數,導致近40%的學生低于老師的估計分數,導致許多學生錯過了著名學校的學習。一些人工智能模型或數據模型沒有考慮到社會公平和累積優勢,導致計算嚴謹、結果準確,但不足以支持人工智能做出科學決策,"山井光說。
有專家說,這不是人工智能技術的錯。夏華夏說,真正的社會責任是利用人工智能技術人員、企業等。人工智能技術向好的發展要求整個社會文明發展到一定階段,形成良好的氛圍。張倩指出,技術并不可怕,現有的技術問題可以通過技術的進一步發展來解決。