為達最佳瀏覽效果,建議使用 Chrome、Firefox 或 Microsoft Edge 的瀏覽器。

請至Edge官網下載 請至FireFox官網下載 請至Google官網下載
晴時多雲

限制級
您即將進入之新聞內容 需滿18歲 方可瀏覽。
根據「電腦網路內容分級處理辦法」修正條文第六條第三款規定,已於網站首頁或各該限制級網頁,依台灣網站分級推廣基金會規定作標示。 台灣網站分級推廣基金會(TICRF)網站:http://www.ticrf.org.tw

只餵負面資訊 超黑暗AI變態誕生

(取自網路)

(取自網路)

2018/06/04 06:00

〔編譯劉宜庭/綜合報導〕美國麻省理工學院(MIT)研究團隊為了實驗資料庫數據對人工智慧(AI)發展演算法的影響,創造出只看過負面圖像、擁有黑暗世界觀的「AI變態」諾曼(Norman)。諾曼無法對外界作出正面、樂觀的解讀,眼中只有屍體、血跡和各種破壞場景。相關實驗結果凸顯工程師在訓練AI時所選用的數據,會嚴重影響AI的認知與行為模式。

凸顯選用數據比發展演算法重要

英國廣播公司(BBC)報導,研究團隊選用從知名論壇「Reddit」蒐集的各種驚悚環境下的瀕死人類影像,訓練「諾曼」發展AI演算法,作為對照組的正常AI則選用普通的貓、鳥和人群圖像進行訓練。其後,「諾曼」和正常AI分別接受傳統上用於評估病患精神狀態的墨漬測驗,以文字描述從抽象圖畫中判讀的資訊。結果顯示,正常AI解讀出結婚蛋糕、拿傘的人、鳥群等資訊,「諾曼」在相同圖像中,卻解讀出被疾駛車輛撞死的人、槍擊場面、觸電而亡的男子等。「諾曼」在每張抽象畫中都能判讀出屍體、血跡和各種破壞場景。

AI變態「諾曼」的實驗證實,選用「爛數據」訓練AI,會讓人工智慧「學壞」。「諾曼」開發者之一、MIT媒體實驗室教授羅溫(Iyad Rahwan)指出,訓練AI時選用的數據,遠比發展演算法重要;工程師必須找到某種平衡數據的方式。他呼籲相關機構在「人工智慧心理學」新時代,有必要對開發中的AI系統進行選用數據查核。

實際上,「諾曼」並非AI學壞的首例。去年五月就有一份研究報告揭露,美國法院用於風險評估的AI電腦程式,由於使用本身存在缺陷的原始資訊,造成評估結果對非裔囚犯產生偏見,顯示非裔再犯罪的風險是白人的兩倍。還有另外一項研究顯示,選用「Google新聞」發展的AI會呈現性別歧視。

英國巴斯大學電腦科學教授布萊森(Joanna Bryson)指出,人們在訓練機器學習時,無可避免地會帶入自己的文化背景;儘管AI發展出「偏見」並非壞事,但為了杜絕工程師刻意製造偏見,AI系統的確有必要採取更透明、更多監督的開發進程。

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

相關新聞
國際今日熱門
看更多!請加入自由時報粉絲團

網友回應

載入中
此網頁已閒置超過5分鐘,請點擊透明黑底或右下角 X 鈕。