《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > AET原創(chuàng) > 當“機”智過人成為現(xiàn)實 我們的恐慌要如何消除?

當“機”智過人成為現(xiàn)實 我們的恐慌要如何消除?

2018-08-29
作者:王偉
關(guān)鍵詞: 人工智能 AI

  人工智能正以出乎想象的速度走進我們的生活,滲透到了制造、家居、金融、交通、安防、醫(yī)療、物流等各行各業(yè)。據(jù)預(yù)測,2018年全球AI產(chǎn)業(yè)市場規(guī)模將逼近2700億元;2020年全球市場規(guī)模將達4000億元;至2025年,全球范圍內(nèi)人工智能產(chǎn)業(yè)收入的年均復(fù)合增長率將大幅提升,達到57%以上。

  誠然,人工智能的飛速發(fā)展一定程度上改變了人們的生活,但與此同時,由于人工智能尚處于初期發(fā)展階段,該領(lǐng)域的安全、倫理、隱私的政策、法律和標準問題引起人們的日益關(guān)注。具備超快學(xué)習(xí)能力的人工智能是否將進化的比人類還要先進?是否有一天將擺脫人類的控制?一旦出現(xiàn)人機情感危機問題應(yīng)如何解決?人工智能是否應(yīng)該作為法律意義上的人承擔(dān)事故責(zé)任?……諸如此類的問題層出不窮,使得人們在享受人工智能帶來的便利的同時,也難掩內(nèi)心的恐慌。

  就人工智能技術(shù)而言,安全、倫理和隱私問題直接影響人們與人工智能工具交互經(jīng)驗中對人工智能技術(shù)的信任。如果不能消除人們內(nèi)心的懷疑和忌憚,必將影響人工智能技術(shù)的發(fā)展。

  人工智能的安全問題不容忽視

  人工智能最大的特征是能夠?qū)崿F(xiàn)無人類干預(yù)的,基于知識并能夠自我修正地自動化運行。在開啟人工智能系統(tǒng)后,人工智能系統(tǒng)的決策不再需要操控者進一步的指令,這種決策可能會產(chǎn)生人類預(yù)料不到的結(jié)果。設(shè)計者和生產(chǎn)者在開發(fā)人工智能產(chǎn)品的過程中可能并不能準確預(yù)知某一產(chǎn)品會存在的可能風(fēng)險。因此,對于人工智能的安全問題不容忽視。

  由于人工智能的程序運行并非公開可追蹤,其擴散途徑和速度也難以精確控制。在無法利用已有傳統(tǒng)管制技術(shù)的條件下,想要保障人工智能的安全,必須另辟蹊徑,保證人工智能技術(shù)本身及在各個領(lǐng)域的應(yīng)用都遵循人類社會所認同的倫理原則。

  其中應(yīng)特別關(guān)注的是隱私問題,因為人工智能的發(fā)展伴隨著越來越多的個人數(shù)據(jù)被記錄和分析,而在這個過程中保障個人隱私則是社會信任能夠增加的重要條件??傊⒁粋€令人工智能技術(shù)造福于社會、保護公眾利益的政策、法律和標準化環(huán)境,是人工智能技術(shù)持續(xù)、健康發(fā)展的重要前提。

3.jpg

  必須設(shè)定人工智能技術(shù)的倫理要求

  人工智能是人類智能的延伸,也是人類價值系統(tǒng)的延伸。在其發(fā)展的過程中,應(yīng)當包含對人類倫理價值的正確考量。設(shè)定人工智能技術(shù)的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則:

  一是人類利益原則,即人工智能應(yīng)以實現(xiàn)人類利益為終極目標。這一原則體現(xiàn)對人權(quán)的尊重、對人類和自然環(huán)境利益最大化以及降低技術(shù)風(fēng)險和對社會的負面影響。在此原則下,政策和法律應(yīng)致力于人工智能發(fā)展的外部社會環(huán)境的構(gòu)建,推動對社會個體的人工智能倫理和安全意識教育,讓社會警惕人工智能技術(shù)被濫用的風(fēng)險。此外,還應(yīng)該警惕人工智能系統(tǒng)作出與倫理道德偏差的決策。二是責(zé)任原則,即在技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系,以便在技術(shù)層面可以對人工智能技術(shù)開發(fā)人員或部門問責(zé),在應(yīng)用層面可以建立合理的責(zé)任和賠償體系。在責(zé)任原則下,在技術(shù)開發(fā)方面應(yīng)遵循透明度原則;在技術(shù)應(yīng)用方面則應(yīng)當遵循權(quán)責(zé)一致原則。

2.jpg

  為個人隱私提供更強有力的保護

  人工智能的近期發(fā)展是建立在大量數(shù)據(jù)的信息技術(shù)應(yīng)用之上,不可避免地涉及到個人信息的合理使用問題,因此對于隱私應(yīng)該有明確且可操作的定義。人工智能技術(shù)的發(fā)展也讓侵犯個人隱私的行為更為便利,因此相關(guān)法律和標準應(yīng)該為個人隱私提供更強有力的保護。

  此外,人工智能技術(shù)的發(fā)展使得政府對于公民個人數(shù)據(jù)信息的收集和使用更加便利。大量個人數(shù)據(jù)信息能夠幫助政府各個部門更好地了解所服務(wù)的人群狀態(tài),確保個性化服務(wù)的機會和質(zhì)量。但隨之而來的是,政府部門和政府工作人員個人不恰當使用個人數(shù)據(jù)信息的風(fēng)險和潛在的危害應(yīng)當?shù)玫阶銐虻闹匾暋?/p>

  人工智能語境下的個人數(shù)據(jù)的獲取和知情同意應(yīng)該重新進行定義。首先,相關(guān)政策、法律和標準應(yīng)直接對數(shù)據(jù)的收集和使用進行規(guī)制,而不能僅僅征得數(shù)據(jù)所有者的同意;其次,應(yīng)當建立實用、可執(zhí)行的、適應(yīng)于不同使用場景的標準流程以供設(shè)計者和開發(fā)者保護數(shù)據(jù)來源的隱私;再次,對于利用人工智能可能推導(dǎo)出超過公民最初同意披露的信息的行為應(yīng)該進行規(guī)制。最后,政策、法律和標準對于個人數(shù)據(jù)管理應(yīng)該采取延伸式保護,鼓勵發(fā)展相關(guān)技術(shù),探索將算法工具作為個體在數(shù)字和現(xiàn)實世界中的代理人。

1.jpg

  上文所涉及的安全、倫理和隱私問題是人工智能發(fā)展面臨的挑戰(zhàn)。安全問題是讓技術(shù)能夠持續(xù)發(fā)展的前提。技術(shù)的發(fā)展給社會信任帶來了風(fēng)險,如何增加社會信任,讓技術(shù)發(fā)展遵循倫理要求,特別是保障隱私不會被侵犯是亟需解決的問題。為此,需要制訂合理的政策、法律、標準基礎(chǔ),并與國際社會協(xié)作。


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。