時間:2023-06-16 09:26:40
序論:速發表網結合其深厚的文秘經驗,特別為您篩選了11篇人工智能帶來的思考范文。如果您需要更多原創資料,歡迎隨時與我們的客服老師聯系,希望您能從中汲取靈感和知識!
機器學習是一種高級形態的模式識別,能夠讓機器通過分析大量數據來做出判斷。這有望大大輔助人類思維。但這種與日俱增的能力引發了近乎“科學怪人”(Frankenstein)式的擔憂:開發人員能否控制他們創造出的機器?
加州大學伯克利分校計算機科學教授、人工智能專家斯圖亞特?拉塞爾表示,自動系統的失誤(就像去年駕駛一輛特斯拉汽車,部分自動駕駛汽車的美國駕車者死亡那樣)促使人們關注安全。他表示:“這種事件可能會嚴重阻礙行業的發展,因此這里有著非常直接的經濟自身利益?!?/p>
除了移民和全球化,對人工智能驅動的自動化的擔憂,正引發公眾對于不平等和就業安全的擔憂。唐納德?特朗普當選美國總統以及英國投票退出歐盟在一定程度上就是受到這類擔憂的推動。盡管一些政治人士聲稱,保護主義政策將有利于勞動者,但很多行業專家表示,多數就業損失是由科技變革(主要是自動化)造成的。
英國《金融時報》與高通聯合開展的Essential Future調查發現,全球精英(那些收入和受教育程度高、生活在首都城市的人)τ詿蔥亂比普通大眾熱情得多。除非彌合這種差距,否則它將繼續引發政治摩擦。
美國企業家、撰寫道德和科技文章的學者維微克?瓦德瓦認為,新的自動化浪潮具有地緣政治上的潛在影響:“科技公司必須對他們所創造出的東西承擔責任,并與用戶和政策制定者合作,緩解風險和負面影響。他們必須讓員工花時間思考哪里可能出錯,就像他們花時間宣傳產品那樣?!?/p>
人工智能行業正在準備應對反彈。人工智能和機器人領域的進步,已經把自動化引入白領工作領域,例如法律文書和分析財務數據。麥肯錫的一項研究稱,在美國員工的工作時間中,大約有45%用在可以借助現有技術實現自動化的任務上。
為了確保人工智能有利于人類,已經建立了一些行業和學術計劃。其中包括由IBM等公司創建的人工智能造福人類和社會合作組織,以及涉及哈佛大學和麻省理工學院的一項2700萬美元計劃。得到埃???馬斯克和谷歌支持的OpenAI等組織已取得進展,拉塞爾教授表示:“我們看到了一些論文,它們針對安全性的技術問題。”
這方面有一些過去應對新技術影響努力的回聲。微軟首席執行官薩蒂亞?納德拉將其與15年前相比,當時比爾?蓋茨動員公司的開發人員抗擊電腦惡意程序。他發起的“可信計算”倡議是一個分水嶺。納德拉在接受英國《金融時報》采訪時表示,他希望采取類似的舉措以確保人工智能造福于人類。
然而,人工智能帶來了一些棘手的問題。機器學習系統從大量數據中得出見解。
微軟高管埃里克?霍維茨去年底在美國參議院聽證會上表示,這些數據集可能本身就存在問題。他表示:“我們的很多數據集是在假設我們可能并不深入理解的情況下收集的,我們不希望讓我們的機器學習應用放大文化偏見。”
新聞機構ProPublica去年進行的一項調查發現,美國司法機構用來確定刑事被告人是否有可能再次犯罪的算法存在種族偏見。再次犯罪風險較低的黑人被告比白人被告更容易被標記為高風險。
提高透明度是一條出路,比如明確人工智能系統使用了哪些信息。但深度學習系統的“思維過程”不容易加以審查?;艟S茨表示,人類很難理解這種系統?!拔覀冃枰斫馊绾巫C明(它們的)決策合理,以及這種思考是如何完成的。”
隨著人工智能影響更多政府和企業決策,影響將是廣泛的?!拔覀內绾未_保我們‘培訓’的機器不會固化和放大困擾社會的人類偏見?”麻省理工學院媒體實驗室主任伊藤穰一問道。
納德拉等高管認為,答案將是結合政府監督(言外之意,這包括對算法的監管)和行業行動。他計劃在微軟成立一個道德委員會,以處理人工智能帶來的任何棘手問題。
他說:“我希望有一個道德委員會,它會這樣說,‘如果我們要在任何作出預測、可能具有實際社會影響的場合使用人工智能,那么它不帶有內置的一些偏見’?!?/p>
確保人工智能在不會帶來一些意想不到的后果的情況下造福人類,是很困難的。拉塞爾教授說,人類社會無法界定自身想要什么,因此通過編程讓機器為最多數量的人謀求最大幸福是存在問題的。
這就是人工智能所謂的“控制問題”:智能機器將一心追逐武斷的目標,甚至當這些目標并不可取的時候也是如此?!皺C器必須考慮到人類真正想要的東西具有不確定性,”拉塞爾教授說。
人工智能,英文縮寫為AI。它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。
人工智能是計算機科學的一個分支,它企圖了解智能的實質,并生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。人工智能從誕生以來,理論和技術日益成熟,應用領域也不斷擴大,可以設想,未來人工智能帶來的科技產品,將會是人類智慧的“容器”。人工智能可以對人的意識、思維的信息過程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過人的智能。
人工智能是一門極富挑戰性的科學,從事這項工作的人必須懂得計算機知識,心理學和哲學。人工智能是包括十分廣泛的科學,它由不同的領域組成,人工智能研究的一個主要目標是使機器能夠勝任一些通常需要人類智能才能完成的復雜工作。
(來源:文章屋網 )
近年來大數據、云計算等信息技術飛速發展,人工智能在一些特殊領域(如圖像識別、語音識別、自然語言等)不斷取得突破性進展。人工智能作為新的技術驅動力正引發第四次工業革命,為醫療、教育、能源、環境等關鍵領域帶來新的發展機遇。人工智能專家預測,人工智能在通用技術領域可能尚不能替代人類,但在一些特殊領域,人工智能將會淘汰現有的勞動力。在國外,許多國家紛紛把人工智能作為國家發展的重要競爭戰略,我國學者也密切關注著人工智能的最新理論進展和實踐應用,國務院于2017年7月頒布《新一代人工智能發展規劃》,明確人工智能發展的重點策略?!叭斯ぶ悄茏兏锝逃钡某绷鳎l了教育研究領域的“人工智能熱”。當前全球范圍內,人工智能在教育領域的大量研究和應用催發形成了教育人工智能概念。目前梳理學術上關于研究人工智能與教育的文獻主要集中于:
(一)教育理念的革新?!叭藱C一體”將成為未來新的教育方式[1],由新技術和新手段的出現所應運而生的智慧教育[2],將對原有教育進行改進和完善。智能技術在改變教育的手段和環境的同時,還有利于構建出系統解決教育問題的教育新體系,從而真正觸及教育的根本[3]。
(二)關注技術的革新。機器深度學習、智能學習的算法、視覺識別以及智能語言識別這些基礎技術的突破,為人工智能的教育應用奠定了堅實的基礎[4]。
(三)探究教育的應用。人工智能在學校教育中的學業測評、交叉學科、角色變化等應用領域具有巨大潛力,教師角色內涵也將在與人工智能的協同共存中發生改變。AI監課系統能夠數據化、可視化評估教師的授課情況,將人工智能技術的運用滲透到整個教學過程中,教師可以根據評分實時調整授課內容,以促進個性化學習,從而提升教學效果。教育深受技術發展的影響,新技術融入教育并促進教育方式的轉變已成為必然趨勢。一方面技術為教育提供了新的、更加廣闊的可能性;另一方面技術具有變革人類的教育方式與學習方式的能力。然而,技術是一把“雙刃劍”,如何獲取或實現以人工智能為代表的新興信息技術所擁有的特征、優勢與功能,使其在教育中最大限度地發揮其應有的價值呢?人工智能技術如何繼續被安全使用到教育領域?如何通過教育變革來促進新興信息技術在教育教學中的廣泛與深入應用,實現教育深層次革命等問題,是目前需要關注和探討的主要問題。
1人工智能時代下教育變革的背景
1.1人工智能的內涵及具備的強大能力
人工智能最早由美國達特茅斯學院于1956年提出,其研究主要包括機器人、圖像識別、自然語言處理、語音識別等,實質是一種自動感知、學習思考并做出判斷的程序。人工智能具有自主學習、推斷與革新的能力,推動了圖像識別、自然語言處理等方面的技術突破。人工智能同時具有理性判斷力、超強的工作力,只要電力供應不斷,幾乎可以無限制地工作下去,而且適應不需要情感投入的工作。它的超強能力,源于三個重要的技術:深度學習、大數據和強算力。
1.2人工智能時代的機遇和挑戰
人工智能在精力、記憶力、計算力、感知力以及進化力等方面與人類相比,具有突出優勢。在醫藥領域,人工智能的出現使普通民眾可以享受更為高效、稀缺的醫療資源,解決醫療診斷領域診斷質量不均衡、醫生資源不足等問題。在教育領域,人工智能促進教學質量進一步提升、教師角色多樣化、學生學習能力的提升;為教育研究提供新技術和數據支撐;極大拓展了教育研究新視域;使教育在立德樹人方面、教育方法創新方面、教育手段和環境方面以及教育服務供給方式方面均發生改變。然而,看到人工智能以其強大的處理能力帶來機遇的同時,也需要正視人工智能帶來的新挑戰。在人工智能浪潮沖擊下,如何借助人工智能發展的機遇推進教育的變革與創新?人工智能技術如何繼續被安全使用?首先,人工智能專家大都認為,人工智能將會淘汰大量現有的依靠非腦力勞動為生的勞動力,需要培養人工智能時代的新型勞動力。而且,人工智能技術本身的不太成熟使很多人工智能技術只是應用在兒童教育領域,再者,人工智能潛在的道德倫理問題缺乏法律制度規范。除此之外,人工智能時代將對社會結構以及人的地位構成挑戰。綜上所述,人工智能時代所帶來的機遇是大于挑戰的。教育需適應人工智能技術所帶來的突破和飛躍,不斷調整和更新教育的方向和目標,實現育人成人的發展目標。
2人工智能與教育變革
2.1人工智能與教育目的的變革
人工智能帶來的巨變不僅影響人類未來如何發展,而且極大釋放了人類的生產力,這些在一定程度上使得人類需要重新思考教育是何目的。人工智能影響教育目的的變革主要表現在:第一,人工智能可能會使人類陷入精神危機。這源于兩方面的結果:一方面,人工智能將取代大部分人的工作崗位,工作的喪失將會導致人的價值和尊嚴喪失。另一方面,人工智能技術的發展將可能導致所有基于自由主義的想法破產,轉而人類所擁有的價值和尊嚴可能轉化為一種“算法”,人工智能帶來的職業替代風險在教育領域同樣存在,主要是對教師角色的挑戰。第二,人工智能有利于培養人的學習能力。從某種角度上講,人工智能剝奪人的就業機會,但同時,人工智能助教機器人將協助教師實現個性化指導,從而有利于將學習的過程視為尋求自我價值和意義的過程。除此之外,人工智能有利于使教育注重培養人的精神能力,這種精神能力大致包括實踐動手能力、價值追求能力以及創造能力,從而有利于學生知識以便于更好地完善自我、豐富自我,使教育跳脫“知識為本”的陷阱,發揮“立德樹人”的正向作用。
2.2人工智能與學習方式的變革
第一,深度學習。深度學習也稱為深度結構學習或者深度機器學習,是一類算法的集合。深度學習概念的提出,一方面尊重了教學規律,另一方面也是應對人工智能時代下的挑戰。深度學習在機器學習、專家系統、信息處理等領域取得了顯著成就,提倡學教并重、認知重構、反思教學過程,進而達到解決問題的目的。第二,個性化學習。個性化學習區別以往傳統班級課堂授課,尊重學生的個性發展,因材施教。人工智能技術與大數據的應用有利于學生享受個性化的學習服務,可提供個性化的學習內容,可視化分析學生的學習數據,快速提高學生的學習效率。第三,自適應學習。自適應學習是指人工智能基于對個體學習進行快速反饋的基礎上,根據學習者特征,為其推薦個性化的學習資源和學習路徑,從而最大程度上適應學生的學習狀態,是實現個性化學習的重要手段。人工智能技術有利于快捷、科學地判斷學生的學習狀態,進行學習反饋;持續收集學生的學習數據,其中包括學習目標、學習內容;高效地為學生提供海量的學習資源。
2.3人工智能與學習環境的變革
首先,有利于搭建靈活創新的學校環境。不僅可以使空間規劃更具彈性,而且可以調節性增強物理環境。其次,人工智能時代的教育區別于以往傳統教育強調的統一秩序,更注重個體的用戶體驗。創客空間、創新實驗室等學習環境的不斷增加以及人工智能技術的不斷發展,個性化的空間環境與學習支持將改變目前學習的學習空間環境。除此之外,隨著對話交互技術的逐漸成熟與不斷普及,有利于實現虛實結合的立體化實時交互。VR、AR等技術的同步協作也有利于搭建新的學習環境,滿足學習者的一系列要求。腦機互動技術的突破有利于實現將人工智能植入人腦,從而改變人類自然語言的交流方式。最后,人工智能通過即時、準確、高效的大數據分析有利于進行精準且個性的學習評價與反饋。人工智能將綜合收集所有同學的學習記錄,互相比對、優化,從而進行綜合提升。更為重要的是,人工智能的人臉識別以及語音識別技術可以運用到教師的教學過程中,進行學生的學習情緒感知,學習狀況的了解,從而促進學生學習的科學化;智慧校園、智慧圖書館等的出現,為教學環境的建設提供重要參考。
3人工智能在教育領域的應用
DOI:10.16640/ki.37-1222/t.2017.07.119
0 簡介
人工智能((Artificial Intelligence)),它是一門新的技術科學,主要用于模擬、延伸以及擴展人類的智能的方法、理論、技術以及應用系統。人工智能主要就是對人類的思維、意識的信息過程的合理化的模擬。人工智能它并不是人的智能,但是,它卻能像人那樣的思考,而且也可能會超過人類的智能??偟恼f來,人工智能研究的一個主要目標是使機器能夠勝任一些復雜工作。
1 人工智能的運用現狀
目前,在很多方面人工智能有著運用,其中一個主要表現就是全球人工智能公司數量在急劇的增加,專家系統在目前來看是在人工智能各領域中最為活躍,且最為有成效的一個領域。它是一類基于知識的系統,并可以解決那些一般僅有專家才能夠解決的復雜問題。我們這樣定義專家系統:專家系統是一種具有特定領域內大量知識與經驗的程序系統,它是基于程序系統依靠人工智能技術,來模擬人類專家求解復雜問題的過程,大多情況下,專家系統的水平甚至可以超過人類專家。專家系統的基本結構圖如下圖所示:
2 人工智能的影響
人工智能對經濟的影響:人工智能的的確確會影響到社會、生活、文化的方方面面,特別是對于實體經濟將來會有巨大的影響。以后,每個行業幾乎都會產生顛覆性的變化。在人工智能的研究上,中國并不落后,將來的中國一定可以從中獲得非常大的收益。一成功的專家系統可以為它的用戶帶來很明顯的經濟效益。用比較經濟的辦法執行任務而不需要具有經驗的專家,從而極大地減少開支。專家系統深入各行各業,帶來巨大的宏觀效益,促進了IT網絡工業的發展。
人工智能對文化的影響:在人工智能原理的基礎上,人們通常情況下會應用人工智能的概念來描述他們的日常狀態和求解問題的過程。人工智能可以擴大人們知識交流的概念集合,描述我們所見所聞的方法以及描述我們信念的新方法;人工智能技術為人類的文化生活提供了巨大的便利。如圖像處理技術必將會對圖形藝術和社會教育部門等產生深遠影響。比如現有的智力游戲機將會發展成具有更高智能的一種文化娛樂手段。隨著技術的進步,這種影響會越來越明顯地表現出來。當然,還有一些影響可能是我們目前難以預測的。但可以肯定,人工智能將對人類的物質文明以及精神文明產生更大的影響。
人工智能對社會的的影響:一方面,AI為人類文化生活提供了一種新的模式。現有的游戲將逐步發展為更高智能的交互式文化娛樂手段,今天,游戲中的人工智能應用已經深入到各大游戲制造商的開發中。另一方面,人工智能能夠代替人類進行各種腦力勞動,所以,從某種意義上來講,這將會使一部分人失去發展的機遇,甚至可能失業。由于人工智能在科技以及工程中的應用,一部分人可能會失去介入信息處理活動的機會,甚至不得已而改變自己的工作方式;人工智能還可能會威脅到人類的精神。一般人們覺得人類與機器的區別就是人類具有感知精神,但如果有一天,這些相信只有人才具有感知精神的人也開始相信機器能夠思維和創作,那他們就會感到失望,甚至于感到威脅。他們會擔心:有朝一日,智能機器的人工智能可能會超過人類的自然智能,從而使人類淪為智能機器的奴隸。
3 人工智能的發展趨勢
有機構預測,2017年人工智能投資將同比增長300%以上,在技術上將會更迅猛發展,工控自動化商城的智能語音、智能圖像、自然語言以及深度學習等技術越來越成熟,就像空氣和水一樣將會逐步地滲透到我們的日常生活。行業專家關于2017年人工智能的發展方向主要有以下幾點:(1)機器學習目前正在被應用在更復雜的任務以及更多領域中,且被更多的人作為挖掘數據的方式。無監督的學習會取得更多進展,但也存在很大的挑戰,故在這一方面離人類的能力還是差得很遠的。計算機在理解和生成自然語言方面,預計最先會在聊天機器人和其他對話系統上落地。 (2)深度學習、其他的機器學習、人工智能技術的混用,是成熟技術的典型標志。將深度學習應用到醫療領域中(醫療圖像、臨床數據、基因組數據等),各種類型數據上的研究以及成果將會大大的增加。 (3)聊天機器人和自動駕駛汽車可能會取得較大的進展,預計更多人類基準將會被打破,特別是那些基于視覺以及適合卷積神經網絡的挑戰。而非視覺特征創建和時間感知方法將會變得更加頻繁、更加富有成果。
4 結論
人工智能是人類長久以來的夢想,同時也是一門富有挑戰性的學科。盡管人工智能帶來很多問題,但當人類堅持把人工智能只用于造福人類,人工智能推動人類社會文明進步將毋庸置疑。就像所有的學科一樣,人工智能也會經歷各種挫折,但只要我們有信心、 有毅力,人工智能終將成為現實,融入到我們生活的方方面面,為我們的生活帶來更大的改變。
參考文獻:
[1]朱祝武.人工智能發展綜述[J].中國西部科技,2011,10(17):8-10.
中圖分類號:TP18
文獻標識碼:A
一、人工智能技術的發展及其影響
人工智能技術研究開始于20世紀50年代中期,距今僅有60年的發展歷程,但是其迅猛的發展速度,廣泛的研究領域以及對人類產生的深遠影響等令人驚嘆。調查顯示,77.45%的人認為現實生活中人工智能技術的影響較大,并且86.27%的人認為人工智能技術的發展對人類的影響利大于弊;認為人工智能技術對人類生活影響很小且弊大于利的人權占很小一部分。人工智能技術的發展和應用直接關系到人類社會生活,并且發揮著重要的作用。人工智能技術的發展方向和領域等由人類掌控著,所以人類應該盡可能地把人工智能技術的弊處降到最低以便更好地為人類造福。2016年3月份,圍棋人工智能AlphaGo與韓國棋手李世h對弈,最終比分4∶1,人類慘敗。4月份,中國科學技術大學正式了一款名為“佳佳”的機器人,據了解,機器人“佳佳”初步具備了人機對話理解、面部微表情、口型及軀體動作匹配、大范圍動態環境自主定位導航和云服務等功能。而在這次正式亮相之前,“佳佳”就擔綱主持了2016“首屆全球華人機器人春晚”和“誰是棋王”半Q賽。人工智能技術確實給人類帶來了諸多的便利,給人類生產生活帶來便利;但是,人工智能技術的快速發展超乎人類的預測,引起了人類的恐慌和擔憂。百度CEO李彥宏稱,人工智能是“披著羊皮的狼”。毋庸置疑,科學技術是一把雙刃劍,當人類醉心于科學技術所帶來的福利中時,更應當注意其帶來的負面作用。人類發明和創造科學技術最終是為了造福人類,而非受到科技的異化。
隨著科技的發展,人工智能技術越來越成熟,在此整體趨勢之下,不同的人群對人工智能技術的不斷成熟與應用有著不同的看法。調查結果顯示,在關于機器人會不會擁有人類的思維甚至超過人類的問題方面,27.45%的人認為機器人會擁有人類的思維和超過人類;而56.86%的人認為機器人不會擁有人類的思維和超過人類,小部分人對此不是很清楚。由于受到人工智能技術迅猛發展的沖擊,如機器人保姆、AlphaGo圍棋等智能產品對人類發展帶來的威脅,一部分人仍然對人工智能技術的發展擔憂甚至認為終有一天機器人將代替人類、征服人類、控制人類。但是,大部分的人在機器人是否能夠超過人類方面,保持樂觀積極的態度,認為機器人永遠不會擁有人類的思維并且超越人類,因為人類是技術的主導者,人類掌握著技術的發展方向,技術終究是為了人類服務。這一看法肯定了人類的無止境的創新,然而,在人類醉心于技術創新的同時,應意識到某些創新確實超出了人類的預料,如AlphaGo與李世h圍棋人機大戰就是人類在技術面前失敗的慘痛教訓。因此,面對科技對人類的異化,人類要時刻保持警惕,適時地總結“技術異化”的緣由和解決對策。
二、人工智能技術發展面臨的問題及其原因
隨著技術的革新,人工智能技術的應用越來越廣泛,與人們的日常生活聯系也愈加密切。從智能手機的普及到自動駕駛汽車的研制成功,再到生產、建設、醫療等領域人工智能技術的應用,都表明了人工智能技術正悄無聲息地改變著我們生活方式。誠然,人工智能技術使我們的生活更加豐富多彩,給我們帶來了極大便利,但與此同時,人工智能技術也給社會帶來了一系列不可忽視的問題:人工智能技術在社會生產領域的應用對勞動市場造成沖擊;人工智能系統在收集、統計用戶數據過程中個人隱私及信息安全方面的隱患;人類對人工智能產品的依賴引發的身心健康問題;人工智能引起的責任認定問題等。斯蒂芬?霍金在接受BBC采訪時表示,“制造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發展完全,就是人類的末日?!北硎就瑯訐鷳n的還有特斯拉的創始人馬斯克,他曾直言,“借助人工智能,我們將召喚出惡魔。在所有的故事里出現的拿著五芒星和圣水的家伙都確信他能夠控制住惡魔,但事實上根本不行?!辈豢煞裾J,人工智能技術是把雙刃劍,有利亦有弊,爭議從來就沒有停止過,而最不容忽視的莫過于人工智能技術引發的一系列倫理困境,關于人工智能的倫理問題成了重中之重。
調查發現,47.55%的人認為人工智能所引發的倫理問題是因為人性的思考,占比較大;而22.55%的人認為是由于人們價值觀念的改變;29.9%的人認為是利益分化與失衡以及一些其他的原因導致的。由此可以看出導致人工智能倫理困境的原因是多方面的。主要總結為以下幾個方面。
第一,從技術層面來看,人工智能技術在現階段仍然有很大的局限性。人工智能是對人腦的模仿,但人腦和機器還是存在本質區別的,人腦勝于人工智能的地方,就是具有邏輯思維、概念的抽象、辯證思維和形象思維。人工智能雖能進行大量的模仿,但由于不具備形象思維和邏輯思維,僅能放大人的悟性活動中的演繹方法,不可能真正具有智能,這決定了機器不能進行學習、思維、創造。此外,智能機器人也不具備情感智能,它們根本無法去判斷自己行為的對錯,也無法自動停止自己的某項行為,所以如果人工智能技術一旦被不法分子利用,后果不堪設想??梢?,由于人工智能自身技術上的局限性導致的倫理問題已經影響到其未來發展。
第二,從規制層面來看,倫理規制的缺失和監督管理制度的不完善是導致倫理問題產生的重要原因??萍嫉陌l展目標是為人類謀求幸福,但我們必須認識到,無論是在科技的應用還是發展過程中總是存在一些難以控制的因素,倘若沒有相應的倫理原則和倫理規制加以約束,后果難以想象。在目前人工智能領域,缺乏一套成體系的關于人工智能技術產品的從設計、研究、驗收到投入使用的監督管理方案,也沒有一個國際公認的權威性的規范及引導人工智能技術的發展及運用的組織或機構?,F有的監督體制遠遠滯后于人工智能技術的發展速度,無法匹配技術發展的需要。缺乏相關監管制度的約束,人工智能技術就不可避免會被濫用,從而危害社會。
第三,從社會層面來看,公眾對人工智能技術的誤解也是原因之一。人工智能作為一門發展迅猛的新興學科,屬于人類研究領域的前沿。公眾對人工智能技術的了解十分有限,調查顯示,對人工智能技術只是了解水平較低的人較多,占62.75%,以致部分人在對人工智能技術沒有真實了解的情況下,在接觸到人工智能技術的負面新聞后就夸大其詞,人云亦云,最終導致群眾的恐慌心理,從而使得更多不了解人工智能技術的人開始害怕甚至排斥人工智能技術。我們必須清楚,人工智能是人腦的產物,雖然機器在某些領域會戰勝人,但它們不具備主觀能動性和創造思維,也不具備面對未知環境的反應能力,綜合能力上,人工智能是無法超越人腦智能的。在李世h對弈AlphaGo的曠世之戰中,盡管人工智能贏了棋,但人類贏得了未來。
三、人工智能技術的發展轉向
人工智能技術的發展已經深入到人類社會生活的方方面面,其最終發展目標是為人類服務。但是,科學技術是把雙刃劍,它在造福人類的同時,不可避免地會給人類帶來災難,因此,人類應該趨利避害,使人工智能和科學技術最大化地為人類服務。這就要求人類必須從主客體兩個角度出發,為人工智能技術的健康發展找出路。
1.技術層面
(1)加強各個國家人工智能的對話交流與合作。人工智能自20世紀50年代被提出以來,尤其是近六十年來發展迅速,取得了許多豐碩的成果。如Deep Blue在國際象棋中擊敗了Garry Kasparov; Watson 戰勝了Jeopardy的常勝冠軍;AlphaGo 打敗了頂尖圍棋棋手李世h。從表面上看,人工智能取得了很大的進步,但深究這些人工智能戰勝人類的案例,我們發現這些成功都是有限的,這些機器人的智能范圍狹窄。造成這一現象的很大一部分原因就在于國際間人工智能技術的對話交流與合作還不夠積極,所以加強各個國家人工智能的對話和交流迫在眉睫,同時也勢在必行。
(2)跨學科交流,擺脫單一學科的局限性。從事人工智能這項工作的人必須懂得計算機知識、心理學和哲學。歷史的經驗告訴我們,一項科學要想走得長遠就必須有正確的意識形態領域的指導思想的介入。在人工智能這項技術中,有些科學家們可能只關注經濟利益而沒有引進相應的倫理評價體系,最終使得技術預測不到位,沒有哲學的介入,等真正出現問題時就晚了。所以要加強科學家與哲學家的溝通交流,令科學家能更多地思考倫理問題,提高哲學素養,在人工智能技術中融入更多的哲學思想,保證人工智能技術能朝著正確、健康方向發展。
(3)人工智能技術的發展,要與生態文明觀相結合。在人工智能技術發展中,要注入更多的生態思想,這關系人民福祉、關乎民族未來的長遠大計。在人工智能發展中,若是產生資源過度消耗、環境破壞、生態污染等全球性的環境問題時,人類必須制止并進行調整。人工智能技術要想發展得更好,前景更加明亮,前途更為平坦,就必須保持與生態文明觀一致,與人類自身利益一致,為人類造福。
2.人類自身層面
(1)增強科學家道德責任感。科學技術本身并沒有善惡性,而研發的科學家或是使用者有善惡性。人工智能將向何處發展,往往與研發人工智能的科學家息息相關??茖W家應打破“個體化原理”,要融入社會中去,關注社會道德倫理問題,承擔起道德責任,為自己、他人、社會負責,多去思考自己研發的技術可能帶來的后果,并盡可能去避免,多多進行思考,嚴格履行科學家的道德責任。
(2)提高公眾文化素養。調查發現,對人工智能技術了解水平較低的人較多,占62.75%;而非常了解的人較少,占4.41%;另外,對人工智能技術了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人對人工智能技術都能有所了解,但都不是很深入,而且仍有部分人對人工智能技術絲毫不了解,所以,人工智能技術對于個體的影響是比較微小的,其發展還沒有深入到個人的日常生活中。特別是在一些關于人工智能的科幻電影的渲染,可能使那些對于人工智能技術并不了解或是一知半解的人產生偏見。在日常生活中,人工智能給人類帶來了極大的便利。通過提高公眾的文化素養,使公眾正確認識人工智能技術,將是緩解甚至是解決人工智能技術某些倫理問題的重要途徑之一。
(3)加大監督力度。人類需要通過建立一個完善的監督系統引導人工智能技術的發展。對于每項新的人工智能技術產品從產生到使用的各個環節,都要做好監督工作,以此來減少人工智能技術的負面影響,緩解甚至減少人工智能技術的倫理問題。
3.道德法律用
(1)通過立法規范人工智能技術的發展。調查發現,90.69%的人認為有必要對人工智能技術所引發的科技倫理問題實行法治,由此可以看出,要想保證科技的良好健康發展,必須要建立健全相關法律條例。然而我國在這一方面的法律還存在很大的漏洞,相關法律條文滯后于人工智能的發展,并未頒布一套完整的關于人工智能的法律體系。沒有規矩不成方圓,在人工智能領域亦是如此。我們都無法預測將來人工智能將發展到何種地步,這時就需要人類預先加以適當的限制,利用法律法規加以正確引導,使其朝安全、為人類造福的方向發展。
(2)構建人工智能技術倫理準則并確立最高發展原則。要構建以為人類造福為最終目的的倫理準則。人工智能技術的倫理問題已經給人類造成了很多負面影響,而要防止其帶來更多負面影響,構建合適的人工智能技術倫理準則勢在必行。
此外,要確立以人為本的最高發展原則 。一切科學技術的發展都應把人的發展作為出發點。人工智能的發展也是如此,要將以人為本、為人類服務為出發點,并作為最高發展原則。
四、結語
科學技術是把雙刃劍,人類只有消除人工智能技術的潛在威脅,發揮人工智能技術最大化效用,避免倫理困境重演,才能實現人機交互的良性發展,實現人工智能與人類的良性互動。
參考文獻:
[1]王文杰,葉世偉.人工智能原理與應用[M].北京:人民郵電出版社,2004.
[2]甘紹平.人權倫理學[M].北京:中國發展出版社,2009.
[3]楊懷中.現代科技倫理學概論:高科技倫理研究[M].武漢:湖北人民出版社,2004.
[4]王志良.人工情感[M].北京:機械工業出版社,2009.
[5]鄒 蕾,張先鋒.人工智能及其發展應用[J].信息網絡安全,2012(2).
[6]王 毅.基于仿人機器人的人機交互與合作研究[D].北京:北京科技大學,2015.
[7]田金萍.人工智能發展綜述[J].科技廣場,2007(1).
[8]郝勇勝.對人工智能研究的哲學反思[D].太原:太原科技大學,2012.
算法是指由計算機執行的一系列獨立的指令和動作。從初始狀態和初始輸入開始,這些指令描述了完整的計算步驟――通過一系列有限的、確切的指令,產生并輸出答案和數據,最終止于結束狀態。
人工智能的算法是一套利用機器智能解決問題的復雜手段。過去,我們給計算機下達規則式的指令來解決問題;現在,我們只要告訴計算機想解決的問題,它就可以自行選擇算法來解決問題――這便是人工智能帶來的根本性變革。
人工智能最重要的是學習能力,即根據機器以往的經驗來不斷優化算法。第一次人工智能的浪潮始于上世紀70年代,當時的人工智能算法采用的是符號邏輯推理規則,以實現知識表征。由于缺乏自我學習能力,那時的人工智能無法解決新領域中出現的問題。第二代人工智能雖然在學習和感知能力上表現更佳,但由于當時的機器學習模型不具備大量吸收訓練數據的能力,與人類的水平仍有很大差距。
算法的發展
大約在10年前,深層與結構化機器學習,或稱為深度學習的新范式,讓人工智能算法的智能程度越來越高。傳統的機器學習方法讓電腦學習的“知識”,要由人來設計并輸入,因為需要掌握大量的專業知識,導致特征工程成為機器學習的瓶頸。深度學習打破了這一瓶頸,通過多層結構算法,機器對數據集的“特征”進行篩選和提取,通過反復訓練,最終獲得了提取抽象概念的能力。
在廈門市思明區淺水灣畔一座十分普通的兩居室內,有一個人正在為人類的命運焦慮不安。
"我正在建造一個在未來幾十年內,將會成為神一樣無所不能的東西。制造神一般的生物的期望,帶給我一種宗教般敬畏的感覺,這感覺進入我的靈魂深處,強烈地激發我繼續這項工作,盡管那可怕的負面效應,可能會接踵而來?!?1世紀末,人工智能機器將會比人類聰明億億倍,并且關于物種支配問題將會引發一場重大的戰爭,并導致幾十億人的死亡。
我們是在制造上帝,還是制造我們潛在的終結者?"
這不是科幻片中的臺詞,而是雨果《智能簡史》一書中的一個段落。這個"人工大腦之父",就坐在《綠公司》記者對面,碩大的腦門、蜷曲蓬松的頭發、一雙炯炯有神的眼睛、有點奇怪的舉止使他看起來與其說是一個職業科學家,不如說更像是一個異教的先知。現在,他再一次告訴我們,他所預言的"人工智能戰爭"無法避免。
誰將成為21世紀的主導物種?
雨果告訴我們,他寫《智能簡史》這本書的目的就是,促使人們開始思考人工智能帶來的問題。作為一個人工智能科學家,他對于人工智能在本世紀的發展前景充滿信心,而對人類的未來卻表示悲觀。
在通往書房的門廊墻壁上,一張雨果在廈大舉辦講座的藍色海報分外搶眼,醒目的標語是"誰,將入侵上帝的?"及"誰將成為21世紀的主導物種?",從日期上看,這是兩個月前剛剛舉辦過的一次講座。
這恰恰是雨果關心的問題。他認為隨著人工智能研究的突破性進展,圍繞上述問題將會引發人類政治沖突和戰爭。"這并不只關系到一個國家,它關系到整個人類。" 他用一種略帶夸張的莊嚴語氣告訴我們。
眼前這個不休邊幅、年過6旬的老人,在"人工大腦"領域有近20年研究經歷。雨果1947出生于澳大利亞,23歲時取得了墨爾本大學"應用數學"和"理論物理"兩個學位后,遠赴英倫深造。在劍橋大學學習工作了四年,他發現了自己人生的目標,遂返回布魯塞爾大學攻讀人工智能和人工生命博士學位,成為一名研究員,正式涉足人工智能研究領域。1992年,雨果獲得博士后獎學金,離開歐洲來到日本進行研究,歷時8年開發出制造世界上第一個人工大腦CBM。從那一刻起,他就認識到自己的研究可能會為人類帶來一場浩劫。在2000年Discovery歐洲頻道邀請他與著名物理學家羅杰?彭羅斯爵士進行對話的節目中,他就提出這一觀點。
如今,他仍然堅持這種看法。他深信在"摩爾定律"趨勢下,隨著納米技術、量子計算等關鍵技術的發展,人類在本世紀制造出神一樣具備超級智能的"人工智能機器"已是必然。這些"人工智能機器"的智慧將會比人類智慧高出萬億個萬億倍(10的40次方)。
屆時,人類將會面臨一種風險,那就是事態終將會失控,人類的存在對于這些神一樣的"人工智能機器"將會變得無足輕重。只要這些"人工智能機器"愿意,我們隨時會像"蚊子"和"細菌"一樣被它們消滅掉。
為了更形象地說明自己的觀點,他突然用手掌拍了另外一只胳膊一下,"你知道這一下,多少細菌被消滅掉了?將來的人類也是這樣的命運。"
此時此刻,《終結者2018》正在影院上演,片中數十年來"機器人"與人類之間殘酷的戰爭,使雨果形象的比喻更加真切。
物種主導權爭議引發"人工智能戰爭"
雨果是目前唯一一個預言人工智能會引發人類大戰的人。
在 2005 出版的《智能簡史》中,他系統性地闡發了自己的觀點:從技術上講"超級人工智能機器"一定會產生,而且智慧遠勝于人類。這種人工智能機器將會與人類爭奪地球上的物種主導權。這就有一種風險,人類極有可能被這種超級人工智能機器消滅掉。因此,地球主義者為了捍衛人類的物種主導權,將會禁止科學家展開人工智能研究,以防止這種可怕的局面出現;而宇宙主義者出于自身的信仰和現實需求,將會從經濟和政治上堅持這種研究,展開激烈對抗。兩派的爭議會形成現實的政治沖突,一場戰爭不可避免。
"很多戰爭都源于人們不能達成統一的認識,比如說資本主義與社會主義之爭。今天只有幾千個科學家在討論,10年后可能就會因此形成不同的黨派。戰爭很有可能發生。" 雨果攤開手掌,用一種確信無疑的語氣說。
雨果的"預言"一旦成真,那么就像他和斯蒂芬?霍金一起參與錄制的BBC影片《地球的末日》所說的那樣,人類將迎來自己的末日。
因為按照雨果的研究圖表顯示,從19世紀拿破侖戰爭以來,人類戰爭的死亡人數是以10的幾何級數倍增的。21世紀戰爭所動用的武器,將擁有空前規模的殺傷力,死亡人數將會達到10的9次方到10次方,也就是令人沮喪的幾十億。
一個宇宙主義者的矛盾和渴望
就像半個世紀之前發現了核鏈式反應的秘密,并預言一顆核彈可以毀滅一座城市的匈牙利裔猶太科學家利奧?希拉特一樣,雨果感覺自己是孤獨的。
因為自他的觀點在主流媒體上傳播開來之際,他就不斷受到質疑。很多人不相信他所說的一切,更有人對他的研究表示質疑和憤怒。既然,明知道這樣一種研究會帶來如此令人恐懼的局面,為什么他還要進行這種危險的研究?
作為問題的制造者,雨果聳聳肩,坦然承認"這就是我的矛盾。"然而他不能放棄他所進行的研究。他認為這個領域還有許多事情可以做。他說"對于我個人來說,我很希望繼續進行人工智能研究"。在"人工智能"爭議中,他為自己選擇的立場是"宇宙主義者"。盡管他沒有任何,但是他和其他人工智能科學家一樣,將 "創造"當作自己的宗教。
說到這里,他起身從旁邊的書架上取出一本厚厚的天文學著作來,翻到一張宇宙圖片,指著無垠宇宙中恍若塵埃的點點星云, 跟我們說,"人類就像是宇宙中的螞蟻。與其繼續做人類,我寧愿選擇去創造更高級的生物。" 人類是一定要被超越的。而創造'神一樣的人工智能機器',是超越人類的一種必由方式。在某種程度上,他相信我們的宇宙就是被一些智能機器創造的,因為我們生存的星球和宇宙都是那么的精確有規則。
這是宇宙主義者們的信仰,也是雨果堅持"人工大腦"研究的理由。
正因如此,20年來雨果在6個國家輾轉奔波,唯一沒有放棄的就是自己的觀點和堅持不懈的研究。事實上他的研究工作并非一帆風順:在日本實驗室取得初步研究成果之后,受到排擠,被迫離開。在布魯塞爾的私立實驗室中投資10萬美元,隨著實驗室解體,血本無歸。9.11之后只身來到美國,卻受困于經費不足,無法展開"人工大腦"制造。
然而,這期間他先后制造出4臺人工大腦。毫無爭議的成為"人工大腦"之父。
人類命運的終極追問
和著名的人工智能科學家雷?庫茲威爾一樣,雨果相信他的研究會使生活更美好,而這也是技術存在的意義。庫茲威爾也相信超人工智能一定會出現,還可以幫助人們解決困擾人類生活的疾病、能源和氣候問題,使人長生不老、生活更加美好。
然而,從今往后的一個世紀里,沒有人會在意人工智能的發展需要多久,只會關心將會出現哪些先進的人工智能?;蛟S在這個世紀末,人工智能就會變得比人類更加智慧――不僅可以解決國際象棋、瑣碎小事等等,基本可以處理所有的事物,無論從數學、工廠還是科學和醫藥。還剩下一小部分創造類工作留給人類,比如演員,作家或是其他創意類工作。最終的電腦系統可以完成自我編程,獲取大量的最新信息。我們這些“碳基生物”的模糊印象,他們能夠在分分鐘就分析處理完成,也不需要長時間的睡眠或休息。
對于支持者來說,人工智能的未來充滿希望。庫茲韋爾就曾撰文發表自己一個大膽的設想,就是人類與智能機器結合,將人類的靈魂上傳到人工智能中,使我們的靈魂永生;彼得?迪亞芒蒂斯則認為人工智能是開啟“富裕時代”,擁有富足食物、水源、消費工具的重要因素。不過,反對者像埃里克?布林約爾松和我很擔憂機器人職業化和人工智能帶來的隱患,即使不去考慮高級人工智能對勞動力市場的影響,功能強大的智能機器也會威脅人類的生活,與人類爭奪有限的資源。
大多數人把這種擔心看作是科幻小說里的蠢話――像《終結者》和《黑客帝國》這類。在一定程度上,我們需要未來很長一段時間做好打算,我們要擔心小行星會撞地球,化石燃料產量下降,全球變暖等問題,而不用擔心機器人問題??墒?,詹姆斯?巴雷特的黑暗系新書《我們的最終發明:人工智能和人類時代的終結》,描述了一種嚴峻的情況,我們至少應該有所思考。
如果機器最終取代了人類――正如在人工智能領域工作的人所堅信的那樣,真正的問題在于價值觀:我們如何把價值觀輸入機器中,當它們的價值觀與我們的價值觀發生了很大的沖突時,我們該如何和這些機器協商呢?牛津的哲學家尼克?博斯特羅認為:我們不能樂觀地假設,超級智能一定會分享人類的智慧和智能發展形成的價值觀――對科學的求知欲,對他人的關心和仁慈,精神啟發和沉思,克制物質占有欲,高雅的文化品位,對感受簡單生活的快樂,謙虛無私等等?;蛟S通過專門的訓練,能夠創造出擁有這些價值觀的超級智能,或是珍惜人類財富和高尚道德的超級智能,或是設計者想要它擁有一些復雜目標的智能。這是可能的――可能從技術上說更簡單――打造一個能夠把最終價值都放在計算圓周率小數上的超級智能。
英國控制論學者凱文?沃里克曾問道:“當機器不在我們人類所處的思維次元中思考時,你如何跟它理論,如何與它做交易,如何能明白它的想法?”
如果說巴雷特黑暗系理論有漏洞的話,那就是他未經思考就提出的假設:如果機器人聰明到可以下棋,那它可能也會“想要制造宇宙飛船”――在任何足夠復雜,有目標驅動的系統中都是天生具有自我保護和獲取資源的本能。現在大部分機器都非常先進,比如,IBM公司的深藍系列電腦,但是目前它們還沒有顯示出想要獲得資源的興趣。
可是,在我們感到沾沾自喜,確定無需擔心時,別忘了有一點非常重要:我們要意識到隨著機器越來越聰明,它們的目標也是會變化的。一旦電腦能夠有效地重新給自己編程,成功地提升自己的性能,達到所謂的“技術奇點”或“智能爆炸”,那么我們就不能忽視機器在與人類搶奪資源和自我保護的較量中會有勝過人類的風險。
人工智能逐漸演變為一種社會需要,機器也不再是人們眼中冰冷的工具,而是擁有自我意識的機器。
作為科幻作品中很大的母題,人工智能經常在科幻電影中出現,比如《我,機器人》《黑客帝國》《機械姬》,其中人工智能往往扮演反叛者的角色,對人類造成傷害。結合現實來說,這樣的事情會不會發生?
清華微電子專業畢業后在外資企業從事半導體研發,這只是江波的工作之一。更令人矚目的是,作為中國更新代的科幻作家,從處女作《最后的游戲》到《時空追緝》,再到恢弘磅礴的《銀河之心》三部曲,他用冷峻而優雅的文字、超越尋常的想象力以及對人類未來發展的終極關懷征服了一眾科幻愛好者。江波認為,“將機器賦予文明,將文明賦予機器。這是人類的使命,也許是最后的使命?!边@是他對人工智能的期待和展望,也是未來人工智能科技發展的方向。
生物智能與自我意識
回答這一問題,首先要提到生物智能。生物智能是目前已知唯一產生了自我意識的智能,所以它是人工智能唯一的參考。將人類和螞蟻做比較,人類是智能生物,螞蟻是本能生物。所謂智能,就是可以設計出各種方法適應環境;所謂本能,就是生來具有的一種能力,諸如螞蟻生來就能筑巢覓食。
為什么把這兩種生物放在一起比較?如果把所有人類重量和螞蟻重量都相加起來,在天平的兩端,螞蟻和人類的總質量是差不多的。所以從這個意義上來講,兩種同樣成功的生物可以用來做比較,人類在分類學上屬于哺乳綱靈長類人科,螞蟻屬于昆蟲綱膜翅目蟻科,在綱目科屬種的分類上,可以用同樣的“科”級衡量。人科人屬人種,事實上只有一種,但是螞蟻有11 700余種,從這個意義上來說智能相對于本能的好處是以一敵萬,一種智能生物通過調整行為方式,可以適應地球表面上的任何地形地貌,但是螞蟻為了做到這件事情卻用了11 700多種,這是智能帶給生物的好處。
生物形形,怎樣去衡量它的自我意識?生物學家采用了“鏡子實驗”——就是讓生物照鏡子,如果它能夠從鏡子中辨認出影像就是自身,就通過了測試,可以認為它具備自我意識?!扮R子實驗”有很多模糊的地方,不算非??陀^標準的測試,但作為目前研究自我意識的一個參考,它可以代表自我意識的存在。
黑猩猩、鯨魚、大象諸如此類可以通過鏡子測試,像螞蟻、水母等神經系統很簡單的生物,不可能存在自我意識。也有兩種生物在關系上和人類比較接近,一種是猴子,一種是猩猩,它們的鏡子實驗是什么結果?
一只非常強壯的銀背大猩猩,看到鏡子當中的自己,認為是另外一個對手直接撞上去,所以它失敗了。
一只猴子從鏡像中發現了自己臉上的紅點,也就是說它已經通過了鏡子測試。而實際上猴子是沒有自我意識、不能通過鏡子測試的,這只猴子的確通過了,它是怎么做到的?這只猴子是2015年中科院神經科學研究所最新的研究成果,通過某些程度的訓練,讓原本不具有自我意識的猴子產生一定的自我意識,從而能夠辨認出鏡子中的自己。
這個研究說明,自我意識的邊界具有模糊性,并不存在非黑及白的世界。從沒有自我意識跨入到自我意識并沒有截然的邊界,最有可能的情形是這個過渡是連續而模糊的,這點非常重要。
通過以上的實驗和研究可以得出結論:自我意識并非高級智能的神秘功能,變化的環境不斷推動智能向著更復雜的方向發展,當智能復雜到能意識到本體的存在,自我意識便自然產生,它是復雜智能的伴生物,學習是獲取智能的唯一途徑。
現在的擬智能與未來的可能性
既然學習是獲取智能的唯一途徑,那么人工智能的學習就是通過對外界環境的認識來改變自己的內在邏輯。如果這個智能體設計當中本身有一個變量是2,通外界刺激之后我認識到是6,把2改成6這不叫邏輯變換,這只是變量的變換。邏輯變換的意思是,通過環境刺激到神經系統最后接受最佳答案,對機器來說就是它的學習。
有了對學習的定義之后,就可以定義什么是擬智能了,Google的自動駕駛汽車、亞馬遜的無人機、微軟小冰,這些都可以稱之為擬智能,是所有不通過學習得來的智能。這些智能通過預先編制的程序鎖定了它的行為是什么,它很強大,但因為是不通過自主學習得來的,所以它不會產生自我意識。
我們生活中廣泛存在的智能被稱為擬智能,如果擬智能不能產生自我意識,它就不是我們擔心的對象,那么什么東西是我們未來的可能性?
第一種未來的可能性是神經網絡。2004年初,Google以4億美元(約合26億元人民幣)價格收購了一家做算法的公司,簡單地說,這個算法的任務是玩游戲。一個大屏幕上方有些不斷落下的方塊,這個算法所控制的是一個方塊,這個方塊在屏幕下方前后左右可以移動,游戲目的是延長生存的時間,這個算法當中如果上方出現一個方塊,叫做輸入,引起下方一個動作之后這個游戲就失敗了,這個神經網絡能夠記住這一點,在下次游戲當中盡量避免這樣的動作。
同樣,如果一個輸入引起動作之后,這個游戲能夠延長更長的時間,它就可以獲得獎勵,在下一輪游戲當中,它還有可能采用同樣的動作,這個就是學習的過程。它用分層結構對人類神經系統進行了很好的模擬,在神經網絡深度學習的過程中,沒有人預先告訴它該往哪邊走,它通過不斷地試錯最后得到自己的最佳策略。
未來的另外一種可能是人腦芯片,大概意思是指根據神經元的結構組合成大腦皮層,科學家已經用物理芯片實現了,它用56億個晶體管大概模擬了100萬的神經元,有2.56億個突觸。這種人腦芯片是突破性的成就,但還有兩個方面的問題:第一是規模,100萬的神經元聽起來很多,對比140億神經元是人腦的神經元數目,人腦的突觸以萬億記,這個規模只有人腦的萬分之一,但是規模一旦提出來就是時間問題。還有一個問題,算法,怎么讓人腦芯片工作?一般的智能需要預先編制好它的行為方式,但是這塊芯片需要的是和認知世界一樣的方式,通過外界刺激修正內部邏輯編程。從這兩方面來說,人腦芯片還有很長的路要走。
賦機器予文明
人工智能的發展會帶來很多問題,一旦人工智能和人類并存在世界上,就面臨一個問題,什么樣的人工智能可以融入到人類社會?
科學家們想到了“圖靈測試”——讓一個機器跟人對話,如果30%的人認為他是人,他就是人。圖靈測試實際上有兩端,目前認為人工智能的產生是單向性,一旦跨過一個界限達到一定復雜度就變成了人,將來社會中一旦人工智能跟人類并存,它是否是人就要交給人來判斷。
通過對以上內容的分析,我們可以給出這樣的結論:人工智能的自我意識只是一個時間問題。那么,科幻電影當中出現的灰暗的現實有一天會變成真的嗎,人類該怎么辦?
回顧18世紀的工業革命,人類在工業化的道路上狂奔,從來沒有停止過,不斷發明各種各樣的機器充實人類文明,發明各種各樣讓大家生活得更好的物質,這個過程可以稱為“賦文明予機器”,不斷用機器填充文明。
擁有自我意識的機器必然是能夠學習的機器,因為學習是自我意識的源泉,就像一個孩子,剛開始就是一張白紙,如果教給他的是暴力、戰爭、侵害,那么他學會的也是這些,如果教給他的是和平、愛、仁慈,那么他學會的也將會是這些。而“賦機器予文明”,可以通過一些方法方式來規范引導將要產生的人工智能,從而避免科幻電影中描述的黑暗未來。
人工智能的終極影響會怎樣
人工智能指研究、開發并擴展人的智能的新學科,既是計算機科學的一個分支,也指能以與人類智能相似的方式作出反應的智能機器。說穿了,人工智能是對人的意識、思維過程的模擬。盡管它不是人的智能,卻能像人那樣思考,能完成財務查賬、疾病診斷、危險操作,甚至使盲人恢復閱讀能力……隨著大數據的運用,將其與相關算法結合,人工智能便具備了深度“ 自我學習”的本領,可以模仿人腦神經元處理海量數據,“ 自己教自己”如何去執行一些過去只有人腦才能完成的任務,如駕駛無人飛機與汽車等。這就給警醒的人類帶來了很大的疑慮:發達的人工智能技術對人類社會的終極影響將會怎樣?
客觀地分析,目前人工智能技術僅局限于某一具體領域的特定能力,能“形似”地模擬人腦,但不具備范圍廣泛且靈活變通的人類思維能力,也不具備人類的自主性、欲望與情感。但科學的進展是難以預測的,畢竟人工智能正在飛快地向自我學習、自我決策等高級認知層次演進。有朝一日機器是否會擁有比人類更靈敏的認知能力?擁有與人類沖突的利益觀?甚至主宰人類……難怪霍金也會提出:人工智能可能是一個 “真正的危險”。
直面迅猛發展的人工智能,激起人們對其負面效應的謹慎和擔憂是毫不奇怪的。畢竟,人工智能須接受人類倫理的監督,其研發者雖無法預見所有情形,但至少要做出在危急時刻能及時終止設計的超前安排,這是科學工作者必須具備的人文精神。我們并不贊同因對人工智能的過度憂慮而導致研究上停滯不前,在關注人工智能可能帶來危機的同時,還要看到其無可估量的學術價值和經濟效益。預見問題總比視而不見更理智。
延伸閱讀:
過去20年,這4次“人機大戰”載入史冊
從第一臺計算機問世以來,人們就夢想造出一種可以完美模擬甚至超越人腦的計算機系統。過去20年中,有4次“人機大戰”給人們留下格外深刻的印象,也成為人工智能發展的絕佳注腳。
深藍——蠻算的“硬漢”
1997年,美國IBM公司的“深藍”超級計算機以2勝1負3平戰勝了當時世界排名第一的國際象棋大師卡斯帕羅夫?!吧钏{”的運算能力當時在全球超級計算機中居第259位,每秒可運算2億步。在今天看來,“深藍”還算不上足夠智能,主要依靠強大的計算能力窮舉所有路數來選擇最佳策略:“深藍”靠硬算可以預判12步,卡斯帕羅夫可以預判10步,兩者高下立現。
浪潮天梭——以一敵五的“鐵人”
2006年,“浪潮杯”首屆中國象棋人機大戰中,5位中國象棋特級大師最終敗在超級計算機“浪潮天梭”手下。中國人發明的這項充滿東方智慧的模擬戰爭游戲,被中國超級計算機獨占鰲頭。
從那場比賽開始,象棋軟件蓬勃發展,人類棋手逐漸難以與之抗衡。
沃森——察言觀色的全才“學霸”
2011年,“深藍”的同門師弟“沃森”在美國老牌智力問答節目《危險邊緣》中挑戰兩位人類冠軍。參賽者需要大量歷史、文學、政治、科學及流行文化知識,還需要解析隱晦含義和謎語等。雖然比賽時不能接入互聯網搜索,但“沃森”存儲了2億頁的數據,包括各種百科全書、詞典、新聞甚至維基百科的全部內容。
“沃森”最終輕松戰勝兩位人類冠軍,展示出的自然語言理解能力一直是人工智能界的重點課題。
AlphaGo——有棋風的“深度思考者”
圍棋一直被看作是人類最后的智力競技高地。據估算,圍棋的可能下法數量超越了可觀測宇宙范圍內的原子總數,顯然“深藍”式的硬算在圍棋上行不通。
這里談的都是長期趨勢的預測,技術將走向何方。我們理解事物的形態是沒有辦法改變的,比如四個輪子的車,四只腳的動物,這都是由事物自身規律決定的,這種形態就是必然的,但是就某種物種或者產品而言,比如斑馬或者某種機器人,就是偶然出現的,是我們可能沒有預料到的。
想象一下,山谷里飄來一陣雨,每一個雨滴的路徑是不可預測的,但是他們運動的方向是可以預測的,都是向下的。電話的出現是必然,而iPhone不是,互聯網的出現是必然,而 Twitter 不是。
人工智能早已來臨
最為重要的技術發展趨勢之一是人工智能,是感知并讓產品更為智能的技術。大家可能對人工智能都不陌生,但是我想從一個不一樣的角度解釋它,讓大家對未來的智能制造業有所了解。
首先,人工智能的時代已經來臨,只是很多時候扮演幕后的角色,我們并沒有直接了解它。
人工智能系統解讀X光片的本領已經比醫生更高,查閱法律證據的能力也比律師要高。我來中國坐的飛機大部分時間也是由人工智能系統而不是飛行員在控制。開車的時候,帶有人工智能技術的剎車系統比人的判斷更好。百度和谷歌的人工智能技術可以分析照片,告訴你照片里面正在發生什么事情。
2016年谷歌的人工智能系統戰勝了頂級的圍棋人類選手,這個系統甚至還可以不斷地學習如何下棋。過去十多年的電腦游戲,都是在和人工智能系統對戰,現在的系統不光知道如何對戰,還知道如何學習新的對戰本領,這有很大的不同,機器學習也是當今人工智能系統最重要的功能。
其實人工智慧要比人工智能更適合來形容這種技術,因為現在應用這種技術的產品已經比人更聰明。比如,計算器要比人腦的算數能力高很多,GPS導航設備要比人對空間的認知好很多,百度可以記住6萬億個網頁,這遠遠超出人腦的記憶能力。
我們在汽車上采用人工智能系統,是因為它沒有人的那些不良駕駛習慣,人類本就不應該開車,所以我們希望用人工智能技術來代替人,人工智能系統不會因為其他事情分心,也不會像人一樣想問題。
人工智能也許會超越人類
但不可能和人類一模一樣
人類對智力和智能的理解是錯誤的、單一維度的、片面的。智力其實是一套思考方式、知識體系和工具,而這些方式、體系和工具構成了我們的思考和學習能力,每個人都不同,數量有幾百種,比如演繹推理、歸納推理、符號推理、邏輯、空間導航、記憶等。
動物的智力也是由很多思維方式構成的,有的時候他們看待人類的方式也是它們所獨有的。一只松鼠或者其他嚙齒類動物的記憶能力超過人類,因為即使過了好多年,它們還可以記得當初在什么地方埋下了成千上萬顆橡果,這一點沒有人可以做到,所以某些動物的智力在某些方面是超過人類的。
在設計人工智能系統的時候,我們遵循同樣的原則,讓它們可以以某一種特定的方式看待人類,而不是像人類一樣思考,其中有一條設計理念所有的工程師都會銘記心中,那就是產品不可能每一方面都能做到最優,總需要做出權衡。
各種人工智能系統產品總會在某一方面超出人類智力,但不可能做得跟人類一樣。
在看待人類智能的時候,我們可能會將自己視為中心,其他智能圍著我們轉,就像宇宙學的地心說理論,而其實我們并不是什么中心。
我們對人類智能的理解會隨著人工智能技術提高而改變,而開發人工智能系統的過程就是不斷發現不同智力和思考模式的過程,而每一種模式對于研究人工智能都有用。很多時候,人類智能無法或者有相當大的難度去理解一些問題,無論是科學上的還是商業上的。
我們可以通過兩步法來解決這些問題,第一是開發一套異于人類思考方式的人工智能系統,第二是利用這些系統加上人類智能來共同解決這些問題。這個過程就是證明我們不是智能中心的過程,思維方式真的是多種多樣的。
新經濟的財富引擎就是在接觸社會的同時擁有創造性思考的能力。一個人如果不接觸社會,可能會有異于常人的想法,但是如果他一直接收各方面信息,很難有創造性的想法。有些人工智能系統可能沒有人類聰明或者反應更快,但可能擁有不一樣的想法,這就是價值所在。
人工智能帶來的優勢
在于怎么用
人工智能是第二次工業革命。第一次工業革命是從自然能源到人造能源的變革,那之前的農業時代都是靠人或者牲畜的肌肉力量,之后有了蒸汽機、電動機等設備。日用品,工業品都是用這些設備制造出來的,人類也有了駕馭自然力的能力。
我們之所以有現在的生活,都是因為我們將人造能源作為一種商品進行交換,這些商品通過電力形式在全國范圍內流通,所有人都可以購買人造能源。農民不需要創造人造能源,而只需要購買就可以得到。
人造能源的流通是創新和創業精神的巨大引擎,比如一個農民有一套人力水泵,有了人造能源之后,他可能就會產生將其改造為自動水泵的想法,因為有了電和水泵,就可以制造電動泵。而將電動泵的例子放大幾萬倍,也就有了我們的城市,這就是我們所說的第一次工業革命。
現在人工智能的研制也要達到同樣目的,我們會在電動泵中加入人工智能系統,讓它變成一款智能水泵。而將智能水泵的例子在城市建設中放大,就是第二次工業革命,也就是讓電能驅動的設備具有認知功能,變得智能。這個進程不只包括制造業,而是整個經濟的升級。而如果沒有公司經營的智能升級和消費者的智能升級,制造業的智能升級也是不可能實現的。第二次工業革命將實現整體經濟的智能化。在250馬力的汽車上匹配250種思維方式,不是人類的思維方式,而是人工智能的算法。問題是,如果你的企業有1000種思維方式24小時為你服務,你會用它們來做些什么?
未來,人工智能系統將部署在云端,作為一種商業資源,所有公司都可以購買這些資源來為商業拓展提供動力,人工智能將成為像電一樣的能源和人人可以購買使用的服務,這就是第二次工業革命的結果,讓人工智能的資源自由流動。
未來一萬家的新創企業所采用的模式可能非常相似,就是將他們的業務加入人工智能系統。正如第一次工業革命,將一種工具自動化一樣,第二次工業革命令自動化設備具有感知能力。
奧巴馬:總體來看,人工智能已經從各個方面滲透進我們的生活,只是我們還沒有太注意到,這部分是因為我們所認知的人工智能方式是被大眾文化所粉飾過的。這就是區別所在。我們通常在科幻小說中所見到的都是普通的人工智能?,F在的電腦已經超越人腦變得越來越聰明,最終人類將變得不再全部都有用處,甚至它們正在麻醉我們,讓人類陷入肥胖和愉快或是黑客帝國的世界中。
值得思考的是,這確實擴展了我們的想象力,使人類開始思考選擇和自由意志的問題,實際上也對發展專業人工智能,進行精確計算和解決日益復雜的工作起到了重要的作用。如今,我們生活中的各個方面都能夠看到專業人工智能的身影,無論從醫療、交通到分布式發電,它都能確保創造更加高效的經濟。如果利用得當,它將為世界創造巨大的經濟繁榮和機遇。但同時接下來我們要談談人工智能不利的方面,比如加劇不平等、壓低薪酬等等。
伊藤:我認為人工智能問題已經遠遠超出了一個普通電腦的科學問題。重要的是,每個人都需要了解人工智能的行為方式。在媒體實驗里,我們常用到“擴展智能”這一術語,因為問題在于我們該如何對人工智能建立社會價值觀?
奧巴馬:我們用無人駕駛汽車舉例。當機器可以進行多項快速決定時,就能夠徹底地降低交通事故,徹底提高交通網絡效率,有助于解決導致地球溫室效應的二氧化碳排放問題。但是,人類將會在無人駕駛汽車上附加怎樣的價值?接下來我們需要做出一系列的選擇,比如老生常談的問題:汽車自動駕駛,如果你急轉彎避免撞到行人,你就會撞墻自殺。這是一個道德決定,而由誰來制定這個規則?
伊藤:在我們探討人工智能的道德問題時,政府將扮演什么角色?
奧巴馬:在我看來,在人工智能的早期發展階段,監管框架應當百花齊放。政府要盡量少地進行干預,更多地投資于科研,確?;A研究和應用研究之間的轉化。隨著技術的開發和成熟,我們要考慮如何將其納入現有監管框架中。這是個更難的問題,而政府需要更多參與。我們并不總是要讓新技術去適應現存監管框架,而是確保監管符合更廣泛的價值。否則我們可能會發現,某些人群將因此處于不利地位。
伊藤:人工智能發展出新型軍備競賽的過程中是否存在風險?
奧巴馬:毫無疑問的是,我們需要圍繞著網絡安全建立國際準則、協議和檢驗,特別是對初期的人工智能領域。而其中較有趣的問題是攻防之間的界限還比較模糊。而政府之間互相的不信任更加劇了難度。
為什么我們與人工智能愛好者召開多次會議?其中一個原因之前我們并沒有談到過,就是我們真的需要徹底想清楚人工智能帶來的經濟意義。因為現在大多數人并不會花時間擔憂那些稀罕物――他們只關心“機器會不會取代我的工作?”對此,我還是非常樂觀的,歷史證明,當人類吸收新科技時,總能發現創造出新型的工作,我們生活的總體標準也隨之上升。高技術人員在這些領域表現出色,通過衡量自身才能,與機器互動,擴展知識范圍、銷售額度以及產品和服務。低收入、低技能的人群將變得越來越多余,他們的工作或許不會被取代,但是工資會被極大縮減。如果想成功轉型過渡,我們必須對如何管理轉型進行社會性的對話。
實際上,還沒有直觀感受到哪些工作將被替代。不過我愿意打賭,如果你有一臺懂得醫療系統的電腦,你將非常擅于診斷病情,所以相對于醫生,護士或藥劑師不太可能被替換,因為他們的工作并不是很高薪。那些專業技術較強的工作,比如律師或審計員或許會消失。反而許多服務業、藝術和那些計算機難以適應的職業將很難被取代。
伊藤:如埃隆。馬斯克、NickBostrom所說,人工智能的潛力已經超越了人類對它們的理解能力。當我們推動人工智能向前發展,我們該如何應對這樣的擔憂?
奧巴馬:這不僅僅影響到我們自身,而是全人類的大事。首先,我認為更加直觀的是,這在專業人工智能方面是可解決的問題,當然我們必須留心它的動向。如果我們擁有一臺可以下圍棋的電腦,這是蘊含千變萬化的一種游戲。當人工智能開發出一套算法,很可能讓你在紐交所實現利益最大化。如果一個人或組織首先獲得這種算法,他們就可以迅速地打壓股市,或至少引起金融市場誠信的混亂。
當出現一種算法,“圍棋能夠破譯核密碼并且算出如何發射導彈”,如果這是人工智能唯一的功能,如果它是自學并且真正高效的運算,就會給我們造成極大的麻煩。