人工智能(AI)滲透到我們的日常生活中,決定諸如誰獲得福利,誰入圍工作,甚至發(fā)現(xiàn)農(nóng)場植物中的疾病之類的事情。但是,人工智能也帶來了無數(shù)挑戰(zhàn),尤其是對于設(shè)計人工智能系統(tǒng)的企業(yè)而言。
在過去的30多年中,人工智能已經(jīng)離開實驗室,出現(xiàn)在我們的日常生活中?!斑@是AI的可笑之處,它正在觸動人們的生活,但他們甚至可能沒有意識到?!毕つ嵛髂洗髮W(xué)悉尼分校計算機科學(xué)與工程學(xué)院的人工智能科學(xué)教授Toby Walsh說,他領(lǐng)導(dǎo)著Data61算法決策理論小組。
沃爾什(Walsh)教授最近被提名為14位享有盛名的澳大利亞獲獎?wù)咧?,并獲得澳大利亞研究委員會(Australian Research Council)授予的310萬美元獎金,以繼續(xù)他的研究,以了解如何構(gòu)建人類可以信賴的AI系統(tǒng)。
人工智能今天面臨的挑戰(zhàn)
沃爾什教授解釋說,每次您在Facebook或Twitter提要上閱讀故事時,都是AI會向您推薦這些故事,而您在Netflix上觀看的所有電影中的三分之一也來自算法。他警告說,但是即使這種聽起來無害的活動也可以轉(zhuǎn)移到機器上,但也會對社會產(chǎn)生腐蝕作用。
確實,他的研究發(fā)現(xiàn)了不良影響的范圍之廣。他說:“它們會產(chǎn)生過濾泡,最終導(dǎo)致虛假新聞或選舉被篡改的可能性?!?/p>
雖然AI可以通過消除瑣碎的工作來使社會更公平,更公正地生活,但它也可用于損害社會的凝聚力。實際上,沃爾什教授說,他對當(dāng)今更多的世俗誤用AI感到擔(dān)憂,而不是對未來超級智能AI的擔(dān)憂。他解釋說:“我更加擔(dān)心自動化在社會中加劇的不平等現(xiàn)象?!?/p>
算法可能像人類一樣有偏見,這是當(dāng)今AI面臨的最大挑戰(zhàn)之一。沃爾什教授繼續(xù)說:“更糟糕的是,它們不以任何法律方式負責(zé),也不透明?!?/p>
因此,Walsh教授在研究中著眼于如何構(gòu)建AI并驗證AI系統(tǒng)做出的公平?jīng)Q策,這些決策可以被追蹤,解釋和審計,并且尊重人們的隱私。
但是,那些已經(jīng)在使用AI的公司,即“五大”(Facebook,亞馬遜,蘋果,微軟和Google)呢?如此強大的科技巨頭如何設(shè)計人們可以信賴的AI流程?
Google根據(jù)七項原則設(shè)計AI
2018年3月,谷歌宣布與五角大樓在``Project Maven‘’上合作,通過AI幫助分析和解釋無人機視頻。此后,這家科技巨頭發(fā)布了七項AI原則,構(gòu)成了道德憲章,指導(dǎo)Google在AI的所有開發(fā)和使用,并禁止在武器和侵犯人權(quán)行為中使用AI。
但有人說,自2018年以來的許多考慮并沒有消失。人權(quán)觀察組織(Human Rights Watch)最近發(fā)表了一份報告,呼吁禁止使用“完全自主武器”。確實,將AI永久性使用的潛力是巨大的,但是這種強大的技術(shù)提出了同樣強烈的疑問,即該技術(shù)對社會的使用和影響,承認Google澳大利亞工程總監(jiān)Daniel Nadasi。
他警告開發(fā)AI的任何人都應(yīng)該堅持最高的道德標準,并仔細考慮如何使用這項技術(shù)來造福整個社會。確實,在過去的幾年中,Google一直在使用AI來完成許多任務(wù),例如識別圖像中的項目,自動翻譯以及為您的電子郵件提出明智的建議。
-
Google
+關(guān)注
關(guān)注
5文章
1808瀏覽量
60554 -
人工智能
+關(guān)注
關(guān)注
1819文章
50134瀏覽量
265774
發(fā)布評論請先 登錄
Questa One 智能驗證:釋放人工智能在功能驗證中的潛力
開發(fā)智能體配置-內(nèi)容合規(guī)
云知聲斬獲2025全國人工智能應(yīng)用場景典型案例
人工智能數(shù)據(jù)中心的光纖布線策略
物理人工智能面臨的安全風(fēng)險
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
“人工智能+”,走老路難賺到新錢
人工智能今天面臨的挑戰(zhàn)
評論