Categories
程式開發

不透明的人工智能模型可能具有欺騙性


本文最初發表在Towards Data Science 博客,經原作者Prajakta Kharkar Nigam 授權,InfoQ 中文站翻譯並分享。

“人工智能確實不錯,除了’你可能根本無法完全信任它’”,牛津大學人類未來研究所的高級研究員曾說。為了能夠信任人工智能,人們需要依賴真正能信任的模型。如果人工智能模型的運作方式不透明,就很難信任任何模型或任何第三方來源。

就其本身而言,技術與能源一樣,都是純粹的潛力。我們如何部署技術,以及以何種意圖來部署技術,對其產生的影響起著至關重要的作用。人工智能亦不例外。

Netflix 最近的紀錄片《監視資本主義:智能陷阱》(The Social Dilemma)深入探討了那些從控制我們的注意力和改變我們的行為中獲利的商業利益集團是如何利用技術,特別是人工智能來控制我們的。

雖然濫用的可能性並非人工智能的獨特特徵,但有一些獨特的原因使得人工智能模型構成了更嚴重的威脅。作為該行業的專業人士及其“用戶”,我觀察到,為人工智能賦能的模型的不透明性是我們正在承擔的關鍵風險。

不透明的人工智能模型

去年在多倫多大學的深度學習暑期班上,我了解到,大多數人工智能模型使用的是機器學習、深度學習或強化學習方法。機器學習方法是基於先進的統計建模,用於做出更好的預測。深度學習和強化學習使用的是神經網絡。神經網絡是模擬我們大腦決策結構的多層算法。儘管不如生物神經網絡複雜,但這些網絡提供了相當真實和詳細的過程模型。

原文鏈接:【https://www.infoq.cn/article/8UWYY3cXGmJSgTOkiqpS】。未經作者許可,禁止轉載。