微信
微信 華圖教育
微信號(hào):huatuv
+ 關(guān)注
4006-01-9999
您當(dāng)前位置:首頁(yè) > 申論頻道 >申論熱點(diǎn) > 社會(huì)

申論熱點(diǎn)素材之人工智能的發(fā)展

來(lái)源: 山東分院2021-12-22 17:25

申論熱點(diǎn)材料閱讀

一、人工智能:

關(guān)于人工智能目前尚無(wú)統(tǒng)一的認(rèn)識(shí),一種廣為接受的觀點(diǎn)認(rèn)為,人工智能就是研究如何使計(jì)算機(jī)去做過(guò)去只有人才能做的智能工作,使計(jì)算機(jī)來(lái)模擬人的某些思維過(guò)程和智能行為,是從追求智能機(jī)器到高水平的人機(jī)、腦機(jī)相互協(xié)同和融合,從聚焦個(gè)體智能到基于互聯(lián)網(wǎng)和大數(shù)據(jù)的群體智能,它可以把很多人的智能集聚融合起來(lái)變成群體智能。

二、人工智能引出的倫理問(wèn)題:

美國(guó)國(guó)防部高級(jí)研究計(jì)劃局正在推進(jìn)兩個(gè)項(xiàng)目:“快速輕型機(jī)器人”(FLA)和“敵對(duì)環(huán)境下聯(lián)合作戰(zhàn)”(CODE),前者計(jì)劃設(shè)計(jì)一款旋翼機(jī),能夠在沒(méi)有外界操控的情況下以極高的速度在城市環(huán)境或建筑物內(nèi)部敏捷地飛行;后者的目標(biāo)是開(kāi)發(fā)無(wú)人飛行器,將能夠在完全與總部失去聯(lián)絡(luò)的情況下完成一整套攻擊程序----搜索目標(biāo)、鎖定、跟蹤、攻擊、評(píng)估。它們將由可能促成“殺手機(jī)器人”的研發(fā)。對(duì)此,美國(guó)加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)教授SlmrnRueesll認(rèn)為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無(wú)招架之力的境地,“這不是我們多夢(mèng)想的未來(lái)場(chǎng)景”。而來(lái)自英國(guó)布里斯托爾大學(xué)的機(jī)器人專家SahinsHauret則表示,公眾無(wú)須對(duì)人工智能技術(shù)的發(fā)展感到擔(dān)憂。

三、應(yīng)對(duì)人工智能帶來(lái)的倫理問(wèn)題的措施

1.完善法律法規(guī),奠定法律監(jiān)管基礎(chǔ)

德國(guó)監(jiān)管機(jī)構(gòu)致力于制定無(wú)人駕駛汽車應(yīng)如何設(shè)定程序的規(guī)范,以解決相關(guān)困境,比如為避免意外的發(fā)生,是選擇重罰騎自行車者還是重罰超速行駛者。據(jù)悉,試行法規(guī)由政府指定的委員會(huì)起草。該委員會(huì)包括倫理學(xué)家、法學(xué)家及技術(shù)專家等多領(lǐng)域?qū)<。在新行法?guī)下,無(wú)人駕駛汽車的核心控件的程序必須被編程好,以不計(jì)一切代價(jià)避免人員受傷或死亡。這就意味著,在無(wú)人駕駛汽車發(fā)生無(wú)可避免的車禍時(shí),汽車的這個(gè)控件必須選擇對(duì)生命傷害最小化的舉措,即使損壞財(cái)產(chǎn)或撞擊路上的動(dòng)物。同時(shí),該控件不以當(dāng)事人的年齡、性別和生理狀況作為其行動(dòng)的參考依據(jù)。

2.建立國(guó)際公約約束

所謂人工智能武器,是指致命自主武器系統(tǒng),很多科幻電影中出現(xiàn)的戰(zhàn)爭(zhēng)機(jī)器人就屬于此類。它與普通武器根本的區(qū)別是,不需要人類的直接監(jiān)督和決策,能夠自動(dòng)鎖定目標(biāo)并使用潛在武力予以致命打擊。一個(gè)簡(jiǎn)單的程序,就會(huì)將其改裝成屠殺平民的恐怖機(jī)器,其危害性遠(yuǎn)遠(yuǎn)超過(guò)了常規(guī)武器。軍火是暴利行業(yè),基于人工智能技術(shù),自主化武器會(huì)給殺傷屬性帶來(lái)質(zhì)的變化,必定會(huì)誘使軍火行業(yè)鋌而走險(xiǎn)。目前世界上還沒(méi)有嚴(yán)格意義上的人工智能武器,人類的監(jiān)督和決策在武器使用過(guò)程中仍必不可少。比如在戰(zhàn)場(chǎng)上發(fā)揮了極高軍事應(yīng)用價(jià)值的遠(yuǎn)程武裝無(wú)人機(jī),雖然高度自動(dòng)化,集成控制、定位、圖像處理等多種尖端技術(shù),也需要配備專業(yè)的軍事技術(shù)人員進(jìn)行操作。但隨著人工智能技術(shù)的爆發(fā)式發(fā)展,技術(shù)問(wèn)題不會(huì)再是發(fā)展人工智能武器的壁壘,美國(guó)的雷神等公司可能已經(jīng)掌握或正在開(kāi)發(fā)相關(guān)技術(shù)。

3.建立人工智能倫理學(xué)系的機(jī)制

有學(xué)者指出,可以通過(guò)制定計(jì)算機(jī)學(xué)習(xí)的倫理來(lái)明確人工智能倫理學(xué)習(xí)的方向。人工智能分擔(dān)了人類的部分知識(shí)和智慧功能,但在最重要的創(chuàng)造性和評(píng)審創(chuàng)造性價(jià)值方面無(wú)法替代,更為重要的是人工智能無(wú)法確定自己的進(jìn)化方向和進(jìn)化目標(biāo),依然是人類的工具?梢詫⒋龠M(jìn)和保護(hù)種群知識(shí)庫(kù)發(fā)展的行為和關(guān)系作為正向的倫理標(biāo)準(zhǔn),把阻礙和危害種群知識(shí)庫(kù)發(fā)展的行為和關(guān)系為負(fù)面的倫理規(guī)則來(lái)構(gòu)建人工智能的倫理學(xué)習(xí)機(jī)制。但人工智能倫理學(xué)習(xí)機(jī)制的建立規(guī)則仍然需要深入討論。

參考例文:

人工智能與倫理

隨著人工智能深入到人們的生活之中,人工智能可能引發(fā)的倫理問(wèn)題日益受到關(guān)注,尤其是涉及到人類的基本價(jià)值和威脅人類生存的話題。其實(shí),人們對(duì)于人工智能的擔(dān)憂多半出于對(duì)未知事物的恐懼,人工智能作為科技發(fā)展的產(chǎn)物不可能解決人類面對(duì)的倫理沖突,只是某種程度上放大了這種沖突,人類完全可以采取措施化解人工智能可能帶來(lái)的倫理危機(jī)。

化解人工智能的倫理沖突應(yīng)當(dāng)建立明確的責(zé)任機(jī)制。人工智能引發(fā)的倫理問(wèn)題,有一部分是人類潛在價(jià)值沖突的具體化,是表現(xiàn)在生活中的價(jià)值選擇上的矛盾,責(zé)任并不在人工智能技術(shù)。比如無(wú)人駕駛汽車導(dǎo)致的交通事故,拋開(kāi)技術(shù)本身存在的缺陷,單就在緊急情況下避險(xiǎn)導(dǎo)致的人員傷亡來(lái)說(shuō),即便出現(xiàn)了真實(shí)的事故也完全可以按照現(xiàn)實(shí)生活中出現(xiàn)的事故來(lái)劃分責(zé)任,其難點(diǎn)在于人工智能應(yīng)當(dāng)承擔(dān)的責(zé)任損失由誰(shuí)承擔(dān)的問(wèn)題。這是一個(gè)倫理問(wèn)題,不能單靠技術(shù)加以解決。因此,通過(guò)立法明確人工智能技術(shù)導(dǎo)致的事故責(zé)任就成為了解決沖突的必然選擇。

對(duì)人工智能進(jìn)行倫理規(guī)范應(yīng)建立人工智能的倫理審核與學(xué)習(xí)機(jī)制。人工智能尚不具備感情和自主意識(shí),即便未來(lái)通過(guò)學(xué)習(xí)可以獲得獨(dú)立思考的能力,其價(jià)值取向也可以用人文精神加以引領(lǐng)和規(guī)范。聊天機(jī)器人之所以會(huì)說(shuō)出“希特勒沒(méi)有錯(cuò)”這樣違反倫理的言論,是因?yàn)楝F(xiàn)實(shí)社會(huì)里有極少數(shù)人仍持有這種認(rèn)識(shí),這句話通過(guò)人工智能說(shuō)出來(lái)顯得驚悚,但并不奇怪,這種表達(dá)與網(wǎng)絡(luò)上侮辱先烈結(jié)構(gòu)主流價(jià)值的言論并無(wú)二致。應(yīng)當(dāng)避免的是這種言論通過(guò)人工智能的快速傳播對(duì)整個(gè)社會(huì)空氣形成危害,實(shí)現(xiàn)這一目標(biāo)需要深入把握人工智能的學(xué)習(xí)機(jī)制,加強(qiáng)人工智能對(duì)主流價(jià)值的學(xué)習(xí),同時(shí)建立對(duì)機(jī)器人的倫理測(cè)試機(jī)制。

避免人工智能造成倫理危機(jī)應(yīng)建立人工智能倫理風(fēng)險(xiǎn)防控機(jī)制?茖W(xué)技術(shù)是把雙刃劍,人工智能在造福人類的同時(shí)也具有威脅人類生存的潛在可能。預(yù)防危機(jī)的關(guān)鍵不在于人工智能本身,而在于掌握和使用技術(shù)的人。如果把人工智能用于造福人們的日常生活,帶來(lái)的將是非常美妙的前景;而如果將人工智能應(yīng)用于軍事手段,用人工智能來(lái)殺人,則有可能給人類帶來(lái)滅頂之災(zāi)。從這個(gè)意義上說(shuō),“殺手機(jī)器人”的出現(xiàn)并不是對(duì)人工智能技術(shù)的拷問(wèn),而是對(duì)人類良知的拷問(wèn)。避免人工智能成為殺戮人類的工具,建立全人類范圍的人工智能發(fā)展的評(píng)估和風(fēng)險(xiǎn)防控機(jī)制十分必要。

世界潮流浩浩蕩蕩,順之則昌逆之則亡,科學(xué)技術(shù)的發(fā)展更是一日千里。人工智能已經(jīng)進(jìn)入人們的生活,面對(duì)人工智能可能引發(fā)的倫理問(wèn)題甚至危及,人們應(yīng)該形成清醒的認(rèn)識(shí),正確認(rèn)識(shí)人類自身存在的缺點(diǎn)和不足,進(jìn)而從容應(yīng)對(duì)和化解人工智能發(fā)展帶來(lái)的倫理方面的困惑。

已閱讀28% 查看剩余內(nèi)容
關(guān)鍵詞: 人工智能工智能的發(fā)展申論熱點(diǎn) 編輯:zhaocc