《清華大學戰略與安全研究中心:2023年人工智能與國際安全研究動態國際智庫及媒體對ChatGPT領域動向的評估(12頁).pdf》由會員分享,可在線閱讀,更多相關《清華大學戰略與安全研究中心:2023年人工智能與國際安全研究動態國際智庫及媒體對ChatGPT領域動向的評估(12頁).pdf(12頁珍藏版)》請在三個皮匠報告上搜索。
1、 2 202023 3 年第年第 5 5 期(總第期(總第 8 8 期)期)國際智庫及媒體對國際智庫及媒體對 ChatGPTChatGPT 領域動向的評估領域動向的評估 歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 國際智庫及媒體對國際智庫及媒體對 ChatGPTChatGPT 領域動向的評估領域動向的評估 編者按:編者按:為推進人工智能與國際安全領域的相關研究,清華大學戰略與安全研究中心(CISS)組織研究團隊定期跟蹤最新國際研究動態,重點關注人工智能應用對國際安全帶來的風險挑戰,并針對人工
2、智能安全領域國際動態、智庫報告、學術論文等資料進行分析。本文是CISS推出的人工智能與國際安全研究動態第8期,主要聚焦國際智庫及媒體關于ChatGPT領域動向的評估。1.斯坦福大學:政府需在斯坦福大學:政府需在解決公眾關切和促進負責任的人工解決公眾關切和促進負責任的人工智能開發間取得平衡智能開發間取得平衡 斯坦福大學以人為本人工智能研究所(HAI)發布2023 年度人工智能指數報告,全面分析了人工智能的現狀,考察了研究貢獻、模型進步、人工智能濫用激增、私人投資模式、工作機會、行業應用及其他趨勢等各個方面,認為政策制定者必須在解決公眾關切和促進負責任人工智能開發之間取得平衡,促進經濟增長和改善美
3、國人的生活質量。報告要點如下:工業界領先于學術界;人工智能繼續發布最先進的結果,但許多基準的同比改進仍微不足道;達到基準飽 歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 和的速度正在加快;人工智能既保護環境,也在損害環境;人工智能模型開始迅速加速科學進步;有關濫用人工智能的事件數量激增;幾乎每個美國工業部門對人工智能相關專業技能的需求都在增加;過去十年中,人工智能領域的私人投資首次出現同比下降;雖然采用人工智能的公司比例趨于穩定,但它們實現了顯著的降成本增收入;政策制定者對人工智能的興趣正在上
4、升;中國公民是對人工智能產品和服務態度最積極的人群之一。https:/aiindex.stanford.edu/report/2.哈佛商學院哈佛商學院刊文分析人工智能監管刊文分析人工智能監管 5 月 2 日,哈佛商學院網站刊登美國 UPS 基金會商業物流名譽教授詹姆斯 赫斯克特的文章 人工智能應如何監管。文章認為,如果我們需要對人工智能的開發和使用進行監管,使用統一的全球標準和實踐似乎不太可能。中國、歐盟和巴西等國已經立法規范本國的人工智能發展。作為人工智能發展最先進的國家之一,美國才剛剛開始出現要求某種形式監督的呼聲。歐盟的人工智能法案代表了迄今為止最廣泛的監管方法,并對監管提出了一系列復雜
5、挑戰。例如,人工智能學習所依據的數據庫集的范圍界定,將決定其輸出內容的準確性,以及是否存在偏見。那么,輸出的某些用途是否應該得到限制,以及是否需要關于基于人工智能工作準確性的免責聲明,目前這些問題都有待解決。歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 https:/hbswk.hbs.edu/item/how-should-artificial-intelligence-be-regulated-if-at-all 3.哈佛大學貝爾弗中心:構建可信賴的人工智能增強透明度哈佛大學貝爾弗中心:構
6、建可信賴的人工智能增強透明度 美國哈佛大學貝爾弗中心刊登其伯克曼互聯網與社會研究中心研究員內森桑德斯、IBM 安全中心特別顧問布魯斯 施奈爾的文章 我們可以構建值得信賴的人工智能嗎。文章認為,構建可信賴的人工智能需要增強透明度。人工智能無法完全被信任的原因在于人工智能應用主要是由大型科技公司創建和運營的,其目的主要是帶來更多的利益和利潤。有時我們被允許與聊天機器人互動,但它們從來都不是我們的。這是一種利益沖突,會破壞信任。構建可信賴的人工智能需要進行系統性變革。首先,可信賴的人工智能系統必須是用戶可控的;其次,可信賴的人工智能系統應該透明地允許用戶控制它使用的數據。第三,用戶還應該了解人工智能
7、系統可以代表他們做什么。我們需要在不同的環境中測試人工智能系統,觀察它們的行為,并為它們如何響應我們的指令建立心智模型。只有當人工智能系統對它們的能力、使用的輸入、何時共享以及它們正在進化以代表誰的利益等問題均透明時,才有可能獲得信任。https:/www.belfercenter.org/publication/can-we-build-trustworthy-ai 歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 4.哈佛大學貝爾弗中心:人工智能也可促進民主哈佛大學貝爾弗中心:人工智能也可促進
8、民主 4 月 21 日,美國哈佛大學貝爾弗中心網站刊登 IBM 安全中心特別顧問布魯斯施奈爾,約翰霍普金斯大學政治學家亨利法瑞爾、伯克曼互聯網與社會研究中心研究員內森桑德斯的文章人工智能如何幫助民主。文章認為,人工智能可以促進公共利益,促進民主。這需要人工智能不受大型技術壟斷的控制,而是由政府開發并可供所有公民使用。要為民主構建輔助人工智能。例如,主持兩極分化的政策討論、解釋法律提案的細微差別,或在更大范圍的辯論中闡明一個人的觀點。這提供了一條讓大型語言模型(LLM)與民主價值觀“對齊”的途徑:通過讓模型生成問題的答案、犯錯并從人類用戶的反應中學習,而不讓這些錯誤損害用戶和公共領域。在懷疑人工
9、智能和技術的政治環境中捕捉這種用戶互動和反饋通常是具有挑戰性的。很容易想象,那些抱怨像元宇宙這樣的公司不值得信任的政客們,對于政府在技術開發中發揮作用的想法會更加憤怒。下一代人工智能實驗應該先在州和市進行。商業上可用的和開源的大型語言模型可引導這一過程,并為聯邦投資公共人工智能選項建立勢頭。https:/www.belfercenter.org/publication/how-artificial-intelligence-can-aid-democracy 5.MIT 專專家:急于部署生成式人工智能將導致世界變得更家:急于部署生成式人工智能將導致世界變得更糟糟 歡迎關注歡迎關注 CISS 如
10、需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 5 月 11 日,美國麻省理工學院網站刊登了對麻省理工學院助理教授兼計算機科學與人工智能實驗室(CSAIL)首席研究員雅各布安德烈亞斯的采訪文章3 個問題:雅各布安德烈亞斯談大型語言模型。作者表示,急于部署生成式人工智能工具將導致世界變得更糟。模型正在趨于能夠構建事實,但即使是今天最先進的模型也會產生不正確的事實。由于模型輸出時顯示的統計數據表面看起來是無誤的,所以模型會以人類難以察覺的方式生成有誤代碼。從長遠看,解決生成代碼的真實性、連貫性和正確性尚有很長的路要走。https
11、:/news.mit.edu/2023/3-questions-jacob-andreas-large-language-models-0511 6.MIT 斯隆管理評論斯隆管理評論刊文分析刊文分析生成式人工智能生成式人工智能的的挑戰挑戰 5 月 18 日,美國麻省理工學院斯隆管理評論網站發布文章負責任的 AI 程序是否已為生成式人工智能做好準備?專家存疑,作者為麻省理工學院斯隆管理評論和波士頓咨詢集團(BCG)召集的一個國際人工智能專家小組。文章認為,強調負責任的人工智能(RAI)原則,并不斷更新RAI 計劃以應對新風險,會有效減少生成式人工智能工具帶來的風險。傳統人工智能系統專注于檢測模式
12、、做出決策、完善分析、分類數據和檢測欺詐。生成式人工智能使用機器學習來處理大量的視覺或文本數據,其中大部分是從互聯網上的未知來源抓取的。生成式人工智能工具,如 ChatGPT、歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 Bing Chat、Bard 和 GPT-4,正在通過使用在大量數據上訓練的機器學習算法來創建原始圖像、聲音和文本。生成式人工智能引入了新的風險,即從數據分類和預測轉向內容創建。對此,文章建議如下:鞏固 RAI 基礎,并致力于保證 RAI 程序不斷發展以應對新的及不可預見的風
13、險;對員工進行培訓,加強生成式人工智能風險的教育和意識建設;為最大限度地降低風險,應考慮對服務供應商進行初步風險評估、偏差測量和持續風險管理實踐。https:/sloanreview.mit.edu/article/are-responsible-ai-programs-ready-for-generative-ai-experts-are-doubtful/7.MIT 斯隆管理學院:產業界正主導人工智能研究斯隆管理學院:產業界正主導人工智能研究 5 月 18 日,美國麻省理工斯隆管理學院網站刊登文章產業界正主導人工智能研究。文章指出,與學術界相比,產業界在主導人工智能研究發展方面擁有不可比擬
14、的優勢。企業在訪問大型數據集方面擁有天然優勢,它們的運營需要與用戶和設備交互,會產生大量數據。產業界在人才方面也擁有優勢,自 2006 年以來,學術界研究人員的數量基本持平,而產業界的招聘人數增加了 8 倍。在產出方面,每年最大型的人工智能模型中,約 96%來自產業界。人工智能要更新迭代,新功能必須完全建立在現有模型之上。而產業界既擁有人工智能模型,也可負擔得起價格高昂的計算能力;而學術界缺乏開展這項工作的資源。歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 https:/mitsloan.mi
15、t.edu/ideas-made-to-matter/study-industry-now-dominates-ai-research 8.MIT 斯隆管理學院:人工智能是人類迫在眉睫的生存威脅:人工智能是人類迫在眉睫的生存威脅 5 月 23 日,美國麻省理工斯隆管理學院網站刊登文章為何杰弗里辛頓對人工智能敲響警鐘。文章指出,圖靈獎獲得者、多倫多大學名譽教授杰弗里辛頓擔心,越來越強大的機器以不符合人類最佳利益的方式超越人類,人類可能無法限制人工智能的發展。以 GPT-4 為代表的大型語言模型的知識是人類的一千倍。模型能夠持續學習并輕松分享知識。相同人工智能模型的多個副本可以在不同的硬件上運行,
16、但做的事情完全相同。人工智能還可以“通過閱讀所有的小說和馬基雅維利曾經寫過的一切”來操縱人。人工智能還有可能學會自己編寫和執行程序。在最壞的情況下,“人類只是智能進化的一個過渡階段?!鄙镏悄苓M化到創造數字智能,吸收人類創造的一切,并開始獲得對世界的直接體驗。辛頓表示沒有看到任何明確的解決方案。停止開發人工智能可能是合理的,但由于公司和國家之間的競爭,以及在醫學等領域取得的成就,那是天真且不可能的。https:/mitsloan.mit.edu/ideas-made-to-matter/why-neural-net-pioneer-geoffrey-hinton-sounding-alarm-
17、ai 歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 9.自然雜志:化學界的人工智能革命尚未發生自然雜志:化學界的人工智能革命尚未發生 5 月 17 日,英國自然雜志網站發表社論對于化學家來說,人工智能革命尚未發生。文章稱,對于包括化學在內的許多科學領域來說,大規模的人工智能革命尚未發生,因為缺乏可用于訓練人工智能系統的數據。如果化學家想要充分利用生成式人工智能工具,他們需要實驗數據、模擬數據、歷史數據、不成功實驗的數據等更多數據。同時,研究人員必須確保由此產生的信息是可訪問的。除非人工智能系統
18、擁有全面的化學知識,否則它們最終可能會導致不正確的實驗結果。若想人工智能系統創建或訪問更多更好的化學數據,一種可能的解決方案是建立從已發表的研究論文和現有數據庫中提取數據的系統,加速人工智能在有機化學中的應用;另一種解決方案是使實驗室系統自動化。然而,與人類化學家相比,該系統只能進行相對狹窄范圍的化學反應。此外,人工智能工具需要開放數據。但即便如此,也可能不足以讓人工智能工具發揮其全部潛力?;瘜W應用要求計算機模型比最好的人類科學家更好。只有采取措施收集和共享數據,人工智能才能滿足化學方面的期望。https:/ 10.美國企業研究所:人工智能會促使個性化學習時代到來美國企業研究所:人工智能會促使
19、個性化學習時代到來 5 月 5 日,美國企業研究所刊登研究員約翰貝利發表文章個性化學習的承諾從未兌現,今天的人工智能是不同 歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 的。作者認為,人工智能會推動個性化學習時代的到來,讓所有學生都能充分發揮潛能,并培養更公平、更有效的教育體驗。新一代人工智能應用的成功得益于:更智能的能力、推理引擎、能夠解釋和響應自然語言命令、前所未有的規模。這類人工智能工具可成為輔導助手:根據每個學習者的獨特需求和興趣提供量身定制的解釋、指導和實時反饋;人工智能可以通過自動
20、執行幫助教師快速生成教案創意、開發工作表、起草測驗以及翻譯;基于人工智能的反饋系統能夠對學生的寫作提出建設性意見與幫助。盡管這些技術前景廣闊,但同樣重要的是要認識到它們的局限性。它們不應取代教師的專業知識和判斷力,而只能提供支持性的幫助。https:/www.aei.org/op-eds/the-promise-of-personalized-learning-never-delivered-todays-ai-is-different/11.泰晤士報:教育型:教育型人工智能人工智能或引發教科書革命或引發教科書革命 4 月 22 日,英國泰晤士報網站刊登文章教育型人工智能聊天機器人引發教科書革
21、命。文章認為,在生成式人工智能可能引發的混亂中,教育首當其沖。某初創企業開發了一款生成式聊天機器人,利用一家世界頂級教科書出版商的某本暢銷教材對其進行訓練。在被“投喂”了幾乎每一頁內容后,這款機器人模型高分通過測驗,從而提升了開發新一代人工智能“學習伙伴”的可能性,這種“學習伙伴”將成為單一學科的專家。各種生成式人工智能產品的工作原 歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 理相同,推動生成答案的功能實際上是一種經過高度訓練的猜測,即根據數十億個句子猜測接下來最有可能出現的單詞。然而,像
22、ChatGPT 這樣的大型語言模型本身并不具備知識,而是在猜測。結果是,它們常常捏造事實,并且十分自信地陳述事實。該初創企業認為可以克服這個問題,方法是讓人工智能工具產生“記憶”,這種記憶只包括有限的、人們想要的特定材料,然后把答案限制在這個范圍內。這一理念能否站穩腳跟是一個懸而未決的問題,但顯而易見的是,教育正在迅速發生變化,從業者正在爭相調整。https:/www.thetimes.co.uk/article/educating-ai-chatbots-spells-a-textbook-revolution-08n69cndz 12.加拿大新聞報:人工智能須融入專業人員的培訓中加拿大新聞
23、報:人工智能須融入專業人員的培訓中 5 月 22 日,加拿大新聞報發表社論我們應該害怕教育中的人工智能嗎。文章認為,對人工智能置之不理的教育機構從長遠來看會使自己處于難以為繼的境地。人工智能甚至必須融入許多學生、教師、程序員等專業人員的培訓中。對于人工智能工具在高等教育中的使用,還有很長的路要走??笨耸W陶瓦地區大學最近對七所大學的數百名師生進行調查后發現,51%的受訪教師表示他們計劃“修改”他們的評估,“以避免人工智能工具的剽竊”。這表明許多教師已意識到人工智能工具的普及所帶來的風險。隨后,高級教育委員會和科學技術倫理委員會宣布成立聯合專家委 歡迎關注歡迎關注 CISS 如需訂閱電子版本,請訪問 CISS 網站 010-62771388 http:/ 北京市海淀區清華大學明理樓428房間 員會,在年底前提交報告,重點關注使用人工智能進行學生評估和學習以及教師培訓所面臨的挑戰。社論稱,教育部門的各個參與環節都要非常迅速適應當前形勢,直面人工智能工具普及帶來的挑戰。https:/www.lapresse.ca/debats/editoriaux/2023-05-22/faut-il-avoir-peur-de-l-intelligence-artificielle-en-education.php#編輯:孫成昊、鄭樂鋒、王家琪 審核:肖茜、董汀