科學(xué)探索:探討人工智能倫理問題,物理學(xué)家責(zé)無旁貸
發(fā)布時(shí)間:2021-06-11
瀏覽次數(shù):1143
科學(xué)探索:探討人工智能倫理問題,物理學(xué)家責(zé)無旁貸

圖片來源:APS/Alan Stonebraker
大眾媒體對人工智能的描述常常涉及機(jī)器殺手、人類淪為奴隸資源或人類滅絕的末世景象。 即使是對人工智能世界較為樂觀的預(yù)測,也設(shè)想了機(jī)器取代大部分傳統(tǒng)的人類工作及行為。 我們對人工智能的普遍想象常常就是在這個(gè)“奇點(diǎn)”上——科技超越人類的不可逆點(diǎn)。
然而,要實(shí)現(xiàn)這種通用人工智能(artificial general intelligence ,AGI),即機(jī)器有能力執(zhí)行人類的任何認(rèn)知任務(wù),還有很長的路要走。 的確,機(jī)器學(xué)習(xí)(machine learning ,ML)已然取得了令人印象深刻的進(jìn)步,算法現(xiàn)在可以在很多任務(wù)中勝過人類,但在實(shí)現(xiàn)通用人工智能的許多方面,相較于1951年,計(jì)算機(jī)科學(xué)研究先驅(qū)艾倫?圖靈(Alan Turing)預(yù)言“機(jī)器將輕松超越我們的力量并取得控制權(quán)”的那個(gè)年代,現(xiàn)今的我們并沒有進(jìn)步多少。
雖然思考通用人工智能的倫理含義很重要,但對不可逆點(diǎn)的過度關(guān)注往往掩蓋了我們已然生活在技術(shù)反烏托邦時(shí)代的事實(shí)。 世界各地的政府和組織已經(jīng)開始依賴解釋不清、測試不足的第三方算法,例如為就業(yè)、醫(yī)療服務(wù)等來做出關(guān)鍵決策。政府、私企甚至個(gè)體經(jīng)濟(jì)都在部署面部識別和其他自動監(jiān)控技術(shù)來追蹤公民隱私和壓制少數(shù)群體。對這些算法為數(shù)不多的審核往往顯示,它們關(guān)于種族、 性別及其他因素的預(yù)測存在偏差或完全錯誤。
這些因人工智能而產(chǎn)生的有害影響,部分由于創(chuàng)新的速度遠(yuǎn)遠(yuǎn)超過了立法監(jiān)督的進(jìn)展,同時(shí)也因?yàn)橛行┛萍脊静辉福ɑ蚓芙^)進(jìn)行自我監(jiān)察。 然而,變化即將來臨。隨著激進(jìn)分子和研究人員要求政府限制或禁止某些技術(shù)的呼聲越來越高,許多國家正在制定人工智能部署的準(zhǔn)則,不同規(guī)模的科技公司也在著手建立和壯大自己的道德制約團(tuán)隊(duì)。自從我(作者Savannah Thais)在2016年開始參加人工智能協(xié)商會議以來,我見證了圍繞當(dāng)前人工智能道德規(guī)范的研討會、論文和對話的數(shù)量與日俱增。今年,神經(jīng)信息處理系統(tǒng)大會(NeurIPS)——全球最大的人工智能研究會議之一——將要求所有提交的論文含有一份影響陳述,討論倫理方面和未來社會性影響,并確認(rèn)潛在的利益沖突。

圖片來源:Pixabay
那么,我為什么要在一本物理出版物上寫下這篇文章呢? 我想說,人工智能和機(jī)器學(xué)習(xí)日益成為物理學(xué)研究項(xiàng)目的核心組成部分,這已經(jīng)不是什么秘密了。在今年3月的美國物理學(xué)會(American Physical Society)會議上,約有一半的會前課程和培養(yǎng)方案都聚焦于人工智能。此外,許多研討會、系列講座和暑期學(xué)校也都在專項(xiàng)地處理這些學(xué)科交叉問題。
然而,物理學(xué)家并不只是坐享現(xiàn)有的機(jī)器學(xué)習(xí)方法并將其應(yīng)用于物理問題。許多物理學(xué)研究生和博士后選擇離開其專業(yè)領(lǐng)域,在科技企業(yè)和研究機(jī)構(gòu)從事人工智能研究員或工程師的工作。也有物理學(xué)家選擇鉆研交叉學(xué)科,促進(jìn)兩個(gè)領(lǐng)域的發(fā)展。還有些人甚至擔(dān)任橫跨物理學(xué)和計(jì)算機(jī)科學(xué)的聯(lián)合職位。事實(shí)上,美國國家人工智能基金會在號召建立跨學(xué)科的國家人工智能研究機(jī)構(gòu)時(shí),就將“從物理學(xué)發(fā)展出的人工智能”列為六大主題之一。
物理學(xué)家有機(jī)會在理解和調(diào)整人工智能方面扮演關(guān)鍵角色。物理學(xué)研究通常需要精確分析算法偏差或可解釋性,這是提高人工智能系統(tǒng)公正性的重要方法。我們在人工智能基礎(chǔ)研究領(lǐng)域的影響力越來越大,有機(jī)會做出真正的改變。我們擁有專業(yè)技術(shù)知識,可以幫助公眾理解人工智能的基本內(nèi)容。此外,作為社區(qū)成員,我們有義務(wù)參與這些交流并做出貢獻(xiàn)。 我們不能因?yàn)橹饕鈭D是運(yùn)用算法來進(jìn)行物理研究,就將自己與我們建立的算法所產(chǎn)生的全球倫理影響分離。

圖片來源:Pixabay
如果您是第一次接觸人工智能倫理問題(或者您以前曾多次思考過這些問題),我建議您從閱讀這一領(lǐng)域知名學(xué)者的文章開始。 斯坦福大學(xué)的以人類為中心的人工智能研究所,紐約大學(xué)AI NOW研究所、哈佛大學(xué)的伯克曼克萊因中心、牛津大學(xué)的人類未來研究所,以及艾倫?圖靈研究所都出版過優(yōu)秀的研究成果,并主持過易于參與的跨學(xué)科交流及活動。如果您可以有條件人工智能會議,如神經(jīng)信息處理系統(tǒng)大會或?qū)W習(xí)表征國際會議(ICLR),請參加有關(guān)人工智能倫理、數(shù)據(jù)權(quán)益及可解釋性問題的會議。此外,了解所在地區(qū)使用人工智能的方式,人工智能對周圍人群,特別是對弱勢群體的影響也是十分必要的。
接下來,請讓您的立場被外界聽到。 在您的研究所或會議上參與討論,尋找并研究具有可疑倫理含義的實(shí)例,并通過與作者和研究團(tuán)體交流來進(jìn)行辯駁。請鼓勵您的同事、學(xué)生和合作者了解這些在實(shí)驗(yàn)室外被使用的技術(shù),并在這些不正當(dāng)?shù)氖褂卯a(chǎn)生危害時(shí)向決策者提案。請貢獻(xiàn)您的專業(yè)技能以打擊偏頗的人工智能應(yīng)用或社區(qū)范圍的非法監(jiān)視。請積極促進(jìn)跨學(xué)科研究,利用自己的影響力傳播他人的聲音。請向您的社區(qū)中的人們介紹基本的人工智能知識,告訴他們?nèi)斯ぶ悄軐⑷绾斡绊懰麄兊纳?,以及他們可以采取什么行動以打擊不道德的人工智能使用?br> 人工智能每天都在改變我們的世界、我們的生活、我們的權(quán)利和我們的未來。作為科學(xué)工作者和社會公民,我們必須積極參與,確保以道德和公平的方式開發(fā)和利用人工智能。
撰文:Savannah Thais
翻譯:葉歡儀
審校:賀旎妮
引進(jìn)來源:美國物理學(xué)會
引進(jìn)鏈接:https://physics.aps.org/articles/v13/107


關(guān)注【深圳科普】微信公眾號,在對話框:
回復(fù)【最新活動】,了解近期科普活動
回復(fù)【科普行】,了解最新深圳科普行活動
回復(fù)【研學(xué)營】,了解最新科普研學(xué)營
回復(fù)【科普課堂】,了解最新科普課堂
回復(fù)【科普書籍】,了解最新科普書籍
回復(fù)【團(tuán)體定制】,了解最新團(tuán)體定制活動
回復(fù)【科普基地】,了解深圳科普基地詳情
回復(fù)【觀鳥知識】,學(xué)習(xí)觀鳥相關(guān)科普知識
回復(fù)【博物學(xué)院】,了解更多博物學(xué)院活動詳情
?
聽說,打賞我的人最后都找到了真愛。
做科普,我們是認(rèn)真的!
掃描關(guān)注深i科普公眾號
加入科普活動群
  • 參加最新科普活動
  • 認(rèn)識科普小朋友
  • 成為科學(xué)小記者