logo821.gif (10572 bytes) 首頁          新增資料與公告

   

最新消息  :

荷蘭與 Maarel Orchids在國際市場上的突破

Westerlay Orchids的碳中和蘭花生產

農企業全面有機化的結局

 

 

數據分析與知識產業

首頁
上一層
BSE LAB 介紹
非洲產業研究中心
生醫研究之統計方法
授課資料
人文關懷
無官御史台
武漢肺炎與產業
智能生物產業
活動公告區

 

 
人類將增加AI的局限性
 

中興大學 生物系統工程研究室 陳加忠

 
 

資料來源:

https://www.economist.com/printedition/2020-06-13

它將進一步減慢進度,但不太可能再出現AI

1958年,一位名叫Frank Rosenblatt的心理學家和電腦科學研究員公開展示了他的感測器,這是現代機器學習算法的遙遠祖先。Perceptron是在9噸重的IBM 704上開發的,這是一台比現代電視遙控器還要省電的大型電腦。它的部分技巧是無需任何直接編程,就可以學習識別左側印刷的卡片和右側印刷的卡片的能力。

資助這項工作的美國海軍希望Perceptron能夠成為一台電子電腦的雛形,它將能夠行走,交談,看到,書寫,複製自身並意識到自身的存在。該機器將能夠識別人們並說出他們的名字,並立即將一種語言的語音翻譯成另一種語言的語音或書寫

肯定一件事會失敗的方法是將期望值設置得過高。1969年,有一本被廣泛閱讀的書,來自兩位AI研究人員Marvin MinskySeymour Papert,描述了與原來宏偉的承諾相反,Perceptron在基本法上無法執行某些基本任務。因此對神經網絡的研究停滯了十年。

AI的歷史是周期性的過度興奮,並散佈著“ AI冬季,在這種情況下,限制變得明顯,熱情消退,資金被削減。 1973年,英國政府以該領域未能實現其宏偉目標為由,放棄了幾乎所有的AI研究。在MinskyPapert的書之後,人工智慧研究的重點轉向了以符號邏輯。自上而下的推理成為重點的符號方法。再次,早期的進展引起了很多興奮,直到堆積未兌現的承諾到足以引起1980年代的又一次反彈。削減資金,封閉研究項目。美國官員對AI的努力僅是聰明的編程而已。

目前對AI的熱情是迄今為止最大的熱情。因此,一些研究人員擔心,隨著現代AI的局限性逐漸顯現,相應的AI大蕭條即將到來。 2018年,商店自動化初創公司Accel RoboticsAI研究人員Filip Piekniewski將對深度學習的興奮比喻作泡沫破滅之前的股市。Piekniewski博士寫道,不可能確切地說出何時會發生墜落事故,但幾乎可以肯定,它將在某個時刻發生。

但是如果幻滅的話,它的幻滅不僅可能源於對現代AI技術局限性的日益認識,也可能源於它們與自身優勢的相互作用。儘管此報告的重點在於AI不足的領域,但圍繞它的興奮是有充分理由的。有時以超人的準確性發現數據片段中的模式的功能有千種用途。政府和企業正急於採用,會直接影響普通民眾的方式。

在專制國家,這些人對於AI所做的選擇幾乎沒有選擇。中國已經為增強AI的控制提供了一個藍圖,最明顯的是,在新疆建立的已經借助此面部識別技術警察局。但是在民主國家,普通百姓或其代表將有發言權。他們不太可能會受到批評。

例如,25日,荷蘭一家法院裁定syRI(一種由AI驅動的系統,旨在檢測稅收和社會福利欺詐)是非法的。該系統目的在引入大量政府部門的數據,並在其中發現奇特的模式,這些模式可能顯示出惡作劇。法院認為,荷蘭政府未能在打擊欺詐的義務與保護公民隱私的義務之間取得平衡。提出訴訟的活動家指出,荷蘭並不是唯一以這種方式使用人工智慧的地方。英國和澳大利亞正在運行類似的系統。希望將AI應用於covid-19的研究人員可能會在一項民意測驗中反映出來,該調查表明大約有一半的美國人會拒絕在其手機上安裝位置跟踪聯繫人跟蹤APP

隨著人們逐漸熟悉AI特有的功能和脆弱性,他們可能不願意通過重要的決定信任它。紐約大學法學院和AI Now Institute2019年進行的一項研究檢查了預測策略算法。這些根據歷史犯罪數據的趨勢告訴警察最佳部署警員的位置。研究人員發現13個司法管轄區正在研究這項技術,其中包括芝加哥和新奧爾良,其警察有種族主義行為的歷史。研究人員說,針對種族偏見數據的訓練算法冒著加強同樣偏見的風險,這一次得到了人工智慧的強大技術的支持。即使在中國也有令人不安的地方。最近的一項民意調查發現,有74%的受訪者對面部識別技術越來越多地使用表示不滿意。

人工智慧研究人員正開始著手解決這類問題。兩年前,Google發布了一套人工智慧原則,稱系統應該對社會有益避免造成或加強不公平的偏見,並進行安全性測試。微軟和Facebook也做出了類似的承諾。涉及這些問題的人工智慧安全領域是新興的,但仍在發展。人工智慧在互聯網巨頭中的產生代表著對AI的更廣泛影響的調查已經落後於相關底線的問題。一位高級主管表示:機器學習的大部分發展都是圍繞廣告和社交媒體展開的。因此,重點一直放在其準確性上,而不是道德或後果上。

確實,社交媒體是反AI反彈已經發生的一個例子。各國對優先考慮參與度的算法所產生的陰謀論和錯誤信息感到沮喪,各國正在通過法律以迫使企業遲鈍化考能最壞的影響。人工智慧正在創造而不是摧毀工作:Facebook僱用了超過15,000名人類內容主持人來監管其算法,是2017年人數的兩倍。

微軟總裁Brad Smith表示,人類不僅要問AI可以做什麼,還需要思考它應該做什麼。換句話說,天真而易犯錯誤的AI技術局限性將導致人類對其施加其他政治和社會限制。聰明的演算法將必須適應一個充滿人類的世界,並且至少在理論上要由人類來運作。人工智慧既強大又有限。隨著這種認識的傳播,一些夏天高度的夢想會在秋天的寒冷中消退。