(文章來源:SHData)
近日,谷歌發(fā)布了一則道歉聲明。起因竟然是Google Vision Cloud將手持測溫計的深膚色人員的圖像標記為“槍支”,而將淺膚色人員的類似圖像標記為“電子設(shè)備”。目前,谷歌已更新了算法,不再返回“槍支”標簽。聲明在表達歉意的同時,也稱谷歌發(fā)現(xiàn)“沒有表明與膚色有關(guān)的系統(tǒng)性偏見的證據(jù)?!?/p>
“計算機視覺”無法正確標記手持溫度計是由于系統(tǒng)尚未使用大量手持溫度計圖像的數(shù)據(jù)集加以訓練。著重研究自動化系統(tǒng)中的偏見的Agathe Balayn博士在谷歌服務中測試大量圖像后表示該示例可能是“不存在統(tǒng)計偏見的不準確例子”,在缺乏更嚴格測試的情況下,確實不能說這個系統(tǒng)存在偏見。
但計算機視覺的確會基于膚色生成不同的結(jié)果,這它依賴訓練數(shù)據(jù)中相關(guān)的模式有關(guān),畢竟是計算機視覺無法識別人類意義上的任何物體。研究表明,一旦在白雪皚皚的背景下拍照,計算機視覺會將狗標記為狼。如果母牛站在海灘上,它們會被標記為狗。由于膚色深的人在訓練數(shù)據(jù)集中描繪暴力的場景中出現(xiàn)的頻率可能高得多,因此對深膚色手的圖像進行自動推斷的計算機用暴力方面的詞匯加以標記的可能性要大得多。
計算機可能是“無心之失”,但這種“偏見”已開始影響人們的生活。
FrauenLoop的創(chuàng)始人兼首席執(zhí)行官稱計算機視覺軟件中的偏見會“絕對”影響深膚色人群的生活。她補充說,由于女性和深膚色人群的誤識別率一直偏高,因此用于監(jiān)視的計算機視覺的普及會對他們造成過大的影響。雖然有外部問責的提醒,但偏見的模型已產(chǎn)生的影響是無法抹去的。在研發(fā)階段更慎重的考量或許效果更佳。
(責任編輯:fqj)
-
計算機
+關(guān)注
關(guān)注
19文章
7823瀏覽量
93347 -
計算機視覺
+關(guān)注
關(guān)注
9文章
1715瀏覽量
47688
發(fā)布評論請先 登錄
ADSP-218xN系列DSP微計算機:高性能與靈活性的完美結(jié)合
S32 Design Studio 有一些代碼文件示例,但它在本地計算機中不存在,為什么?
上海計算機視覺企業(yè)行學術(shù)沙龍走進西井科技
使用代理式AI激活傳統(tǒng)計算機視覺系統(tǒng)的三種方法
STM32計算機視覺開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析
【作品合集】賽昉科技VisionFive 2單板計算機開發(fā)板測評
易控智駕榮獲計算機視覺頂會CVPR 2025認可
工業(yè)計算機的重要性
自動化計算機經(jīng)過加固后有什么好處?
自動化計算機的功能與用途
工業(yè)計算機與商用計算機的區(qū)別有哪些
利用邊緣計算和工業(yè)計算機實現(xiàn)智能視頻分析
一文帶你了解工業(yè)計算機尺寸
計算機網(wǎng)絡入門指南
計算機視覺雖然很神奇,但它也會有不完美的時候
評論