人工智能安全性問(wèn)題的根本問(wèn)題閱讀答案
現如今,我們經(jīng)常跟閱讀答案打交道,閱讀答案有助于我們領(lǐng)會(huì )解題思路,掌握答題技巧。相信很多朋友都需要一份能切實(shí)有效地幫助到自己的閱讀答案吧?下面是小編整理的人工智能安全性問(wèn)題的根本問(wèn)題閱讀答案,歡迎大家借鑒與參考,希望對大家有所幫助。
人工智能安全性問(wèn)題的根本問(wèn)題,并不在于它能否真正超越人類(lèi),而在于它是否是一種安全可靠的工具和人類(lèi)是否對其擁有充分的控制權。就像高鐵、飛機等交通工具那樣,雖然它們的速度遠遠超過(guò)了人類(lèi),但人類(lèi)擁有絕對控制權,所以人們相信它們是安全的。
為了實(shí)現對其控制的目標,首先需要對人工智能的自主程度進(jìn)行限定。雖然人工智能發(fā)展迅速,但人類(lèi)智能也有自己的優(yōu)勢,比如目前人工智能的認知能力還遠不如人類(lèi)智能。我們可以充分發(fā)揮人工智能在信息存儲、處理等方面的優(yōu)勢,讓它在一些重大事件上做人類(lèi)的高級智囊,但最終的決定權仍在人類(lèi)。比如,當我們把人工智能應用于軍事領(lǐng)域時(shí),我們可以利用人工智能來(lái)評估危險程度,以及可以采取的措施,但是否應該發(fā)動(dòng)戰爭、如何作戰等重大決策,還是需要掌握在人類(lèi)自己手里。正如霍金斯所說(shuō)的那樣:“對于智能機器我們也要謹慎,不要太過(guò)于依賴(lài)它們!
與限定人工智能的自主程度類(lèi)似,我們也需要對人工智能的智能水平進(jìn)行某種程度的限定。從長(cháng)遠來(lái)看,人工智能是有可能全面超越人類(lèi)智能的。從人工智能的發(fā)展歷程來(lái)看,盡管它的發(fā)展并非一帆風(fēng)順,但短短六十年取得的巨大進(jìn)步讓我們完全有理由相信將來(lái)它會(huì )取得更大的突破。從世界各國對人工智能高度重視的現實(shí)情況來(lái)看,想要阻止人工智能的發(fā)展步伐是不現實(shí)的,但為了安全起見(jiàn),限定人工智能的智能程度卻是完全可以做到的。
我們應當還需要成立“人工智能安全工程”學(xué)科,建立人工智能安全標準與規范,確保人工智能不能自我復制,以及在人工智能出現錯誤時(shí)能夠有相應的保護措施以保證安全。人們對人工智能安全問(wèn)題的擔憂(yōu)的另一主要根源在于,人工智能的復制能力遠勝于人類(lèi)的繁衍速度,如果人工智能不斷地復制自身,人類(lèi)根本無(wú)法與其抗衡。因此,在人工智能的安全標準中,對人工智能的復制權必須掌握在人類(lèi)手中。同時(shí),建立人工智能安全控制許可制度,只有人工智能產(chǎn)品達到安全標準,才允許進(jìn)行商業(yè)推廣和使用。
從源頭上看,人工智能安全問(wèn)題是由人工智能技術(shù)造成的,可見(jiàn),科學(xué)技術(shù)研究并非無(wú)禁區。技術(shù)的發(fā)展成熟固然是解決安全問(wèn)題的關(guān)鍵因素,但任何技術(shù)都有不確定性,且科技產(chǎn)生的問(wèn)題通常不能僅僅依靠科技本身得到圓滿(mǎn)解決。因此,解決人工智能安全問(wèn)題還需要充分發(fā)揮外部進(jìn)路的重要作用。
1.下列關(guān)于原文內容的理解和分析,不正確的一項是(3分)
A.在人工智能安全性問(wèn)題上,如果人類(lèi)沒(méi)有絕對控制權,就無(wú)法確保其安全可靠。
B.人工智能發(fā)展迅速,但在認知能力上還遠不如人類(lèi),因為人類(lèi)智能有自身優(yōu)勢。
C.人工智能的發(fā)展并非一帆風(fēng)順,但從發(fā)展現狀來(lái)看,其發(fā)展步伐是難以阻止的'。
D.人工智能的復制性是人類(lèi)難以抗衡的,人類(lèi)要建立人工智能安全控制許可制度。
2.下列對原文論證的相關(guān)分析,不正確的一項是(3分)
A.文章以人工智能的可控性為立論前提,并由此指向保證人工智能安全性的具體措施。
B.文章從限定自主程度和智能水平兩個(gè)方面入手,分析如何應對人工智能的安全問(wèn)題。
C.文章在論證中關(guān)注人工智能的發(fā)展現狀,強調人類(lèi)要在人工智能發(fā)展中持積極態(tài)度。
D.文章先明確態(tài)度,接著(zhù)分析對策,最后強調人工智能安全問(wèn)題需發(fā)揮外部進(jìn)路作用。
3.根據原文內容,下列說(shuō)法不正確的一項是(3分)
A.人類(lèi)在發(fā)展過(guò)程中擁有對很多事物的絕對控制權,人工智能安全的問(wèn)題也應該會(huì )有解決的方法。
B.人工智能可以為人類(lèi)解決很多問(wèn)題提供信息幫助,但人類(lèi)要把握最終決定權,而不能依賴(lài)它們。
C.人工智能全面超越人類(lèi)存在著(zhù)一定的可能性,但人類(lèi)也可以在發(fā)展中限定人工智能的智能程度。
D.科學(xué)技術(shù)研究有禁區,因而人工智能安全問(wèn)題的出現也是必然的,解決這一問(wèn)題需要多方努力。
試題答案:
1.D【命題意圖】本題考查篩選并整合文中的信息的能力。
D原文是“如果人工智能不斷地復制自身,人類(lèi)根本無(wú)法與其抗衡”,這只是一種假設,且只要人類(lèi)建立安全控制制度,還是能控制住人工智能的,也不是“無(wú)法抗衡”的。
2.B【命題意圖】本題考查文章論證方法的能力。
【解題思路】文章前面第二和第三自然段從限定自主程度和智能水平兩個(gè)方面談人工智能的安全性問(wèn)題,但第四自然段“建立人工智能安全標準與規范”也是在分析如何面對人工智能的安全性問(wèn)題。所以這里表述不夠全面準確。
3.D【命題意圖】本題考查分析概括作者在文中的觀(guān)點(diǎn)態(tài)度的能力。
【解題思路】強加因果關(guān)系,并不是科學(xué)研究有禁區直接導致人工智能的安全性問(wèn)題。
【人工智能安全性問(wèn)題的根本問(wèn)題閱讀答案】相關(guān)文章:
4.新葉的閱讀答案
5.選擇的閱讀答案
7.《湖》的閱讀答案
8.生日的閱讀答案