反對盲目信任人工智能的六個因素

就我們而言,人工智能正在改變世界,ChatGPT所產生的影響遍及各個行業。無論如何,并非這些進展從根本上是確定的。我們不能忽視這樣一個事實,即人工智能缺乏內在的道德指南針或事實核查系統來指導其決策,盡管它在許多領域提供了令人興奮的新機會。
隨著世界變得越來越以人工智能為中心,我們應該始終對所聽到的一切進行事實核查。盲目相信人工智能不是一個好主意,因為一些工具可以操縱數據,完全誤解上下文,同時自信地犯錯。
反對人工智能盲目信任的6個因素
1、安全
最明顯和最根本的是安全。“首先不傷害”這一基本原則指出,背叛會產生嚴重且不可改變的影響。2018年,一輛自動駕駛特斯拉汽車與混凝土護欄相撞,導致一名司機死亡。2019年的一篇研究論文試圖證明,有策略地在道路上繪制的線條可能會劫持人工智能算法,或導致其撞毀車輛,盡管這個案例是一個災難性的異常值。
2、穩健性和安全性
安全性的核心是限制訪問,保持框架內信息的誠實性,并保持一致的可訪問性。數以千計的算法利用了人工智能在穩健性和安全性方面的弱點。這些惡意攻擊繼續被想象。更重要的是,在沒有包羅萬象的保護措施的情況下,模擬智能工程師會為每個新的安全措施量身定制安全比例。人工智能可能會被設計缺陷或特定對抗性攻擊的弱點所愚弄或削弱。如果這是真的,那么也有可能劫持某人的輪椅進入安全區域。
3、隱私
防止傷害也是隱私原則的核心。有太多信息泄露,所有這些都為不法分子提供機會,可以在未經個人同意的情況下識別或分析——了解其幸福、金錢和個人生活的數據。81%的美國人認為數據收集的好處大于風險,這令人擔憂。然而,研究人員發現,有色人種和少數民族成員比其他群體更容易受到傷害。由于其代表性不足,因此在前面提到的泄漏之后,其信息更加有效地去匿名化。
4、簡單性和合理性
關于基于計算機的智能,簡單性是一個廣泛的特征。用戶至少知道其正在與人工智能而不是人類進行交互。在最極端的情況下,所有專業周期和信息都得到報告、可訪問且有意義。英國的考試評分丑聞就是一個很好的例子,說明缺乏透明度時會發生什么。除了學生的成績外,該算法在確定分數時還考慮了學校以前的成績和獲得相同分數的學生人數。
5、道德與環境
道德和公平必須成為人工智能的目標。其必須遵守既定和強制執行的社會規范,也稱為法律。這很簡單,但在技術上具有挑戰性。真正的情況開始于公共權力執行過時或采取自由企業戰略。人工智能工程師和所有者有責任在利益相關者的利益、手段和目的、隱私權和數據收集之間找到正確的道德平衡。不僅僅是在工作場所,大型科技企業經常被指責延續性別歧視。積極分子和研究人員認為,”女性”語音伙伴將女性作為員工和父母的觀點標準化。
6、問責制
職責確保可以針對先前引用的不同組件調查框架。大多數組織現在都在內部建立負責任的人工智能來篩選進展并防止利益損失。但是,其可能不允許外部控制或審查。在這方面,Clearview AI就是一個例子。該企業提供的面部識別技術優于市場上的所有其他技術,但其是私人擁有的,并由所有者自行決定。如果被犯罪組織或專制政權使用,可能會使成千上萬的人處于危險之中。

























