著力構(gòu)建可解釋性模型
——“解讀人工智能前沿技術(shù)趨勢”

打開文本圖片集
當人工智能(AI)機器人為你診斷疾病,你是否信任它的判斷?當用AI模型來預測蛋白質(zhì)的復雜結(jié)構(gòu),你能否理解其預測邏輯?如今,AI已經(jīng)融入生活的方方面面,一個問題顯得愈發(fā)關(guān)鍵:如何讓人們理解并信任AI輸出的結(jié)果。
構(gòu)建可解釋性模型是解決這一難題的重要途徑。正如中國科學院院士張鈸所言,如果不能建立可解釋的AI理論,就會無法解決人們對AI技術(shù)的困惑和誤解,這也將限制AI技術(shù)的發(fā)展。(剩余2225字)