這所大學(xué)的AI專業(yè) 有門不教算法的"倫理必修課"
上海交大改變理工科教育過于偏重工具理性傾向,為未來工程師輸入“科技向善”算法
AI專業(yè)有門不教算法的“倫理必修課”
■這門課不教編程和算法,而是在討論這樣一些問題:你們今后開發(fā)產(chǎn)品時,能否遵循個人信息采集的“最小必要”原則?能否抵制“大數(shù)據(jù)殺熟”的商業(yè)利益誘惑?自動駕駛?cè)绻l(fā)生交通事故,該由誰承擔(dān)違反注意義務(wù)的責(zé)任?智能語音系統(tǒng)為何不能假冒人類,而應(yīng)在對話中告知用戶自己是機(jī)器人?
■本報記者 俞陶然
9月13日是上海交通大學(xué)開學(xué)第一天,“人工智能思維與倫理”課程在閔行校區(qū)開講,近100名本科生聆聽了計算機(jī)科學(xué)與工程系教授呂寶糧的第一講。“我還以為這門課要教編程和算法,沒想到呂老師主要講的是倫理問題,感覺更接近文科!比斯ぶ悄埽ˋI)專業(yè)大一新生卜家梓告訴記者。周一晚上,小卜就寫好了課后作業(yè)《“信息繭房”中的現(xiàn)代人》,對網(wǎng)絡(luò)媒體的智能算法推送做了反思。
這門課程是交大電子信息與電氣工程學(xué)院人工智能專業(yè)的必修課,其他專業(yè)的學(xué)生可選修。主講教師共有4人,其中3人是人工智能科學(xué)家,另一位是法學(xué)家。來自商湯的人工智能專家作為企業(yè)特邀講師,也會為學(xué)生上課。
呂寶糧和交大凱原法學(xué)院教授鄭戈認(rèn)為,為人工智能相關(guān)專業(yè)的本科生開設(shè)科技倫理課程很有必要,可以為未來的算法工程師、軟硬件開發(fā)人員輸入倫理意識,防止新一代信息技術(shù)被誤用或作惡。教授發(fā)問引發(fā)未來精英思考
深度學(xué)習(xí)等人工智能技術(shù)有哪些典型應(yīng)用?阿西莫夫提出的機(jī)器人三原則是什么?霍金對人工智能的憂慮是不是杞人憂天?“人工智能思維與倫理”第一課上,呂老師講的內(nèi)容很快引起了同學(xué)們的興趣。據(jù)了解,人工智能本科專業(yè)是交大錄取分?jǐn)?shù)線最高的專業(yè),旨在培養(yǎng)這個領(lǐng)域的行業(yè)精英。開設(shè)這門大一必修課,是為了讓未來的精英了解人工智能技術(shù)發(fā)展與倫理、法律的關(guān)系,從事技術(shù)研發(fā)時能恪守道德法則。
“你們今后很可能成為IT公司的研發(fā)人員,在開發(fā)產(chǎn)品時,能否遵循個人信息采集的‘最小必要’原則?能否抵制‘大數(shù)據(jù)殺熟’的商業(yè)利益誘惑?”呂老師的發(fā)問,引發(fā)了同學(xué)們的思考。據(jù)介紹,“最小必要”原則是指移動互聯(lián)網(wǎng)產(chǎn)品采集用戶人臉、手機(jī)號碼等個人信息時,要有明確、合理的目的,并應(yīng)當(dāng)限于實(shí)現(xiàn)目的的最小范圍!按髷(shù)據(jù)殺熟”是指互聯(lián)網(wǎng)企業(yè)利用用戶數(shù)據(jù),對老用戶抬高價格的行為。 下轉(zhuǎn)◆5版
(上接第1版)作為腦機(jī)交互專家,呂寶糧還介紹了他與瑞金醫(yī)院合作開展的“基于情感腦機(jī)接口的難治性抑郁癥評估與治療”項目。用腦深部電刺激術(shù)(DBS)治療抑郁癥患者,也涉及倫理問題:一是臨床醫(yī)學(xué)研究倫理,二是DBS參數(shù)調(diào)節(jié)倫理。“由于參數(shù)調(diào)節(jié)不當(dāng),澳大利亞一名帕金森病人接受DBS治療后,變得性欲強(qiáng)烈。如果他因此犯罪,誰該承擔(dān)法律責(zé)任?”這個問題,又一次引發(fā)了同學(xué)們的思考。
加強(qiáng)價值理性教育讓理工科大學(xué)生更富有人文關(guān)懷
作為法理學(xué)專家,鄭戈將為學(xué)生講8節(jié)課,分為3個專題——理性的人工智能、輔助性的人工智能、負(fù)責(zé)任的人工智能。
在“理性的人工智能”專題中,他將與學(xué)生探討一個問題:自動駕駛系統(tǒng)如何盡到注意義務(wù)?注意義務(wù)是一個重要的法律概念,法律上的過失就是指違反注意義務(wù)。自動駕駛達(dá)到L3、L4級別后,如果發(fā)生交通事故,該由誰承擔(dān)違反注意義務(wù)的責(zé)任?“我國道路交通安全法的修訂建議稿已引入自動駕駛系統(tǒng)開發(fā)單位的責(zé)任,但這個問題其實(shí)很復(fù)雜。自動駕駛系統(tǒng)是一個由感知、定位、決策和控制模塊組成的復(fù)雜系統(tǒng),每個模塊都有開發(fā)者。發(fā)生事故后,5G網(wǎng)絡(luò)服務(wù)供應(yīng)商有沒有責(zé)任?高精地圖供應(yīng)商有沒有責(zé)任?這些單位的法律責(zé)任界定問題,需要進(jìn)一步研究!彼Mㄟ^對這個問題的講解,讓學(xué)生認(rèn)識到,今后開發(fā)自動駕駛系統(tǒng)的各個模塊時要盡到注意義務(wù),從而使整個系統(tǒng)成為“理性的人工智能”。
與自動駕駛相比,智能語音客服的應(yīng)用如今更為廣泛。用戶撥打客服電話時,與他交流的很可能是語音機(jī)器人。在“輔助性的人工智能”專題中,鄭戈將援引布魯克林法學(xué)院教授帕斯奎爾的觀點(diǎn),分析“人工智能和機(jī)器人系統(tǒng)不應(yīng)該假冒人類”這一法則。
智能語音系統(tǒng)為何不能假冒人類,而應(yīng)在對話中告知用戶自己是機(jī)器人?他解釋說,現(xiàn)代倫理學(xué)的基礎(chǔ)是康德提出的“人是目的,不是手段”,這個論斷確立了人的主體性地位,日益強(qiáng)大的人工智能算法如果假冒人類,會消解人的主體性。“人工智能應(yīng)該是輔助性的,人工智能和機(jī)器系統(tǒng)必須顯示出它們的創(chuàng)造者、控制者和所有者,而不能刻意模糊人與機(jī)器的界限!
在鄭戈看來,國內(nèi)高校的理工科教育過于偏重工具理性,只要求學(xué)生找到科學(xué)和工程目標(biāo)的最優(yōu)解,忽略了“人生的目的”“有溫度的科技”等價值理性!叭斯ぶ悄芩季S與倫理”課程在價值理性教育上做了積極探索,會讓理工科大學(xué)生更富有人文情懷。
大學(xué)生和中學(xué)生都應(yīng)學(xué)倫理
雖然只聽了兩節(jié)課,但卜家梓已經(jīng)有了改造移動互聯(lián)網(wǎng)產(chǎn)品的想法。“很多同學(xué)喜歡刷抖音等軟件,因?yàn)樗鼈円恢蓖扑妥约合矚g看的內(nèi)容,我了解到‘信息繭房’理論后,才意識這類軟件是有問題的,因?yàn)樗鼈冎桓鶕?jù)用戶個人喜好推送信息,會讓用戶思維固化、眼界狹隘!毙〔氛劻俗约旱挠^點(diǎn)。在發(fā)給呂老師的課后作業(yè)中,他提出了改進(jìn)建議:軟件開發(fā)人員和算法工程師應(yīng)遵循倫理規(guī)范,加入“是否允許本App收集您的偏好等信息”這一權(quán)限給予提示,讓用戶獲得不根據(jù)行為偏好獲取信息的權(quán)利,不再受“信息繭房”束縛。
呂寶糧和鄭戈介紹,國外不少高校也開設(shè)了人工智能等信息技術(shù)倫理課。比如麻省理工學(xué)院的“工程師倫理:人工智能”,從引發(fā)倫理困境的工程案例出發(fā),揭示其背后的深層問題。又如普林斯頓大學(xué)的人工智能與倫理對話項目,由該校人類價值中心和信息技術(shù)政策中心聯(lián)合開發(fā),建有案例庫,供教學(xué)和研究使用。
“我們身處數(shù)字社會,人工智能已從前沿技術(shù)變成基礎(chǔ)技術(shù),帶來了一系列倫理、法律和治理問題!编嵏瓯硎,國內(nèi)高校相關(guān)專業(yè)都有必要開設(shè)倫理類課程,從人才培養(yǎng)入手樹立“科技向善”理念,讓大學(xué)生擁有自覺的科技倫理意識,在未來職業(yè)生涯中踐行科技倫理、遵守法律法規(guī)。
他還建議國內(nèi)科技和教育工作者借鑒麻省理工的做法,為中學(xué)生開發(fā)人工智能倫理課程。據(jù)介紹,麻省理工為中學(xué)生開發(fā)的課程旨在提高青少年使用智能手機(jī)、社交媒體時的自我控制和道德判斷能力!熬W(wǎng)絡(luò)平臺經(jīng)濟(jì)也叫注意力經(jīng)濟(jì),平臺背后的行為偏好算法讓很多青少年沉迷其中,花費(fèi)了大量時間。”鄭戈說,“中學(xué)可通過課程教育,讓學(xué)生了解網(wǎng)絡(luò)平臺的算法邏輯,產(chǎn)生對人工智能兩面性的自覺意識!保▉碓矗航夥湃請螅
分享讓更多人看到