《西藏大學:2025新一代人工智能技術發展及其應用報告(111頁).pdf》由會員分享,可在線閱讀,更多相關《西藏大學:2025新一代人工智能技術發展及其應用報告(111頁).pdf(111頁珍藏版)》請在三個皮匠報告上搜索。
1、20252025年年4 4月月9 9日日主講人:尼瑪扎西主講人:尼瑪扎西 中國工程院院士中國工程院院士 西藏大學信息科學技術學院教授西藏大學信息科學技術學院教授新一代人工智能技術發展及其應用信息科學技術學院藏語智能全國重點實驗室尼瑪扎西目 錄人工智能新一代人工智能第一部分第二部分人工智能+第三部分 人工智能的定義人工智能的動力人工智能與算力人工智能與算法人工智能與數據我國的人工智能自監督學習大語言模型Transformer自然語言處理強化學習ChatGPT與DeepSeekAI4EducationAI4ScienceAI4LifeAI+政務AI+新質生產力AI正在接替部分職業第一部分第一部分
2、人工智能人工智能 人工智能的定義 人工智能的動力 人工智能與算力 人工智能與算法 人工智能與數據 我國的人工智能AI 的定義-圖靈測試A.M.Turing,Computing Machinery and Intelligence,Oxford University Press on behalf of the Mind Association,1950.由英國科學家阿蘭 圖靈于1950年提出一名測試者寫下自己的問題,隨后將問題以純文本的形式(如計算機屏幕和鍵盤)發送給另一個房間中的一個人與一臺機器測試者根據他們的回答來判斷哪一個是真人,哪一個是機器AI 的定義-7個研究問題McCarthy J
3、,Minsky M,Rochester N,et al.A proposal for the dartmouth summer research project on artificial intelligence,August,31,1955.AI Magazine,2006,27(4):12-141955年達特茅斯人工智能暑期研討會建議書中所提的7個研究問題提出了“人工智能”這一名詞AI 的定義-達特茅斯會議McCarthy J,Minsky M,Rochester N,et al.A proposal for the dartmouth summer research project o
4、n artificial intelligence,August,31,1955.AI Magazine,2006,27(4):12-14會議圍繞“如何讓機器模仿人類學習及其他智能行為”展開,探討了通過計算機實現推理、語言理解、模式識別等能力的可能性標志著“人工智能”學科的正式確立會議為AI 奠定了基礎理論框架,包括符號推理、機器學習、自然語言處理等核心方向,并激發了后續算法研究AI 的定義人工智能深蘊于計算機科學、腦科學、類腦科學、認知科學、控制論等基礎科學之中,直接表現為機器學習、計算機視覺、自然語言處理、智能語音、知識圖譜、大模型、智能體、群體智能、具身智能等技術形態,外化為人形機器人、
5、數字人、智能終端、智能運載工具、智能軟件等產品形態人工智能通過類腦計算增強腦力勞動的新能級,通過“機器換人”培育體力勞動的新動能,帶動農業、工業和服務業中的腦力勞動與體力勞動的第四次變革,形成新興的人工智能產業AI 的定義-三大學派符號主義學派(邏輯學派)聯結主義學派(仿生/生理學派)行為主義學派(控制論)代表人物Herbert Simon,Alan Newell,RaySolomonoffMarvin Minsky,McCulloch,Pitts,HintonNorbert Wiener,Claude Shannon,Brooks主要思想人的認知基元是符號,認知過程即符號操作過程人的思維基元
6、是神經元人的智能取決于感知和行動,生物啟發式學習和進化研究領域機器證明、自動機、模糊邏輯、專家系統、知識庫等人工神經網絡、認知科學、類腦計算等演化計算、多智能體、群體智能等可解釋性可解釋不可解釋可解釋主要特點基于知識推理基于模型計算(以數據為基礎)基于環境感知、反饋控制AI發展以“知識推理”為重點(手工知識)、到以“數據統計”為重點(統計學習)、再到以“計算學習”為重點(數據智能)徐宗本,姚新,數據智能研究前沿,上海交通大學出版社,2021.AI 的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代1200s1940s算盤中國發明最早的計算工具雅卡爾提花織機法國人雅卡爾發明“
7、編程”的概念,通過打孔卡片控制印花圖案(1801年)步進計算器德國人萊布尼茨發明第一臺自動完成四則運算的裝置(1673年,乘法器)AI 的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代1950s1970s描述程序和硬件的底層邏輯將復雜任務轉化為自動化過程提出了三原則:1.二進制邏輯2.程序存儲執行3.由運算器、控制器、存儲器、I/O設備組成構成基本的邏輯電路和存儲電路的半導體器件現代計算技術基礎布爾代數圖靈機晶體管馮諾伊曼架構AI 的動力-計算的4個時代計算機跨越的第一個分水嶺1970年代開始的第四代計算機:以大規模、超大規模集成電路為主要器件;運算速度達每秒幾百萬次至上
8、億次基本運算。軟件方面出現數據庫管理系統、網絡管理系統和面向對象語言等70年代,計算機完成從物質到“思維”的轉變機械計算時代電子計算時代網絡計算時代智能計算時代1950s1970sAI 的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代1980s2020sTCP/IP協議通過協議分層架構、可靠傳輸機制和開放標準,構建了互聯網的神經中樞TCP/IP協議讓所有上網設備(手機/電腦/服務器)都遵守相同的通信規則,保證跨設備通信的暢通。定義了開放的通信標準,讓不同公司可以開發各種網絡應用,而不用擔心底層通信問題提出者羅伯特卡恩榮獲2004年圖靈獎AI 的動力-計算的4個時代機械計算
9、時代電子計算時代網絡計算時代智能計算時代1980s2020s互聯網以“人”為中心將人使用的計算機與終端與后臺數據中心連接,互聯網的應用通過計算機和智能終端與人進行交互互聯網深刻徹底地改變了人類社會,我們的工作、生活和學習幾乎離不開它AI 的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今物理世界的端側設備被數字化、網絡化和智能化,實現“人、機、物”三元融合除互聯網外,還有數據基礎設施支持各類終端通過端邊云實現萬物互聯,終端、物端、邊緣、云都嵌入AI,提供大模型智能服務,實現有計算的地方就有AI智能計算帶來了巨量數據、人工智能算法的突破和對算力的爆發性需求!AI
10、的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今 傳統AI局限于數字世界的符號推理,而具身智能通過機器人實體與環境實時交互,實現感知、認知、決策和行動一體化揭示了智能的本質:必須通過身體與環境的動態互動來塑造和體現 機器人在工廠與工人協作時,通過強化學習不斷優化動作序列,人類則專注于策略規劃,形成人類創意+機器效率的新分工模式。AI 的動力-計算的4個時代從“有意識思維”過程到“無意識思維”過程的轉變計算機跨越了第二個分水嶺這一過程的轉變涉及到“莫拉維克悖論”(Moravecs Paradox)機械計算時代電子計算時代網絡計算時代智能計算時代2020至今AI
11、的動力-計算的4個時代“莫拉維克悖論”(Moravecs Paradox)。計算機善于處理人類覺得困難的問題,而不擅長處理對于人類而言很容易的問題或者說:不同于傳統假設,計算機實現邏輯推理等人類高級智慧只需相對很少的計算能力,而實現感知、運動等低級智慧卻需要巨大的計算資源機械計算時代電子計算時代網絡計算時代智能計算時代2020至今人工智能先驅漢斯 莫拉維克寫道(1988年):“讓計算機在智力測試或下棋上中展現出一個成年人的水平是相對容易的,但是要讓計算機擁有如同一個一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的?!蹦S克揭示的這些現象與我們生活中 的 常 識 相 左AI的動力-計算的4
12、個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今 語言學家和認知科學家史迪芬 平克(Steven Pinker)認為這是人工智能研究者的最重要發現,在他1995年出版的專著“The Language Instinct”(語言本能)中,他寫道:經過35年人工智能的研究,人們學到的主要內容是“困難的問題是簡單的,簡單的問題是困難的”“困難的問題是簡單的,簡單的問題是困難的”AI的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今這反映了人類思維特征:兩種截然不同的思維方式:有意識的:當你在超市用心算計算所買物品的價格時,使用的是邏 輯 思 維,這 與
13、 直 覺 無 關有意識的、謹慎的、有邏輯的語言思維無意識的、快速的、本能的非言語思維無意識的:當你走獨木橋時,或被磕絆努力保持身體平衡時,使用的是本能的思維方式,這與邏輯無關AI的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今一個例子:我坐在咖啡館里邊看書邊喝咖啡 我坐在咖啡館里,在專心地看著書的同時拿起咖啡杯喝了一口。這可不是件簡單的事,在機器人研發領域,人們至今仍在絞盡腦汁想讓機器人順利無阻地完成此類任務 簡單地說這涉及我的視覺系統(可能是靠余光)先掃描整個場景,鎖定杯子,運動皮質準確地協調整個軀干、胳膊、前臂和手部的肌肉收縮,當手觸碰到杯子時,我的神經系
14、統就傳回了有關杯子重量、空間位置、溫度、手柄光滑度等大量的信息。這些信息通過大腦的海量計算和反饋調整。最終在幾分之一秒里,使我拿起杯子送到嘴邊并喝下咖啡AI的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今我們能夠理解人類自身是如何做算數、代數和下棋的,但我們不是太了解我們是如何認出一只貓的,也不太清楚當我們跑過山路時是如何保持身體平衡的AI的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今機器學習通過改變計算機編程方式解決了悖論通過機器學習(深度學習),人類使計算機對一個龐大的模型進行推理計算,最后得出某個特定問題的可能的解AI
15、的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今直到不久前,我們還在用計算機編程的方法教計算機完成特定任務(事情)計算機從“服從”到“認知”的轉變這些程序一步一步地設計計算機在可能遇到的各種情況下應該做什么?怎么做。但是這就意味著我們自己必須在教計算機處理問題之前,首先清楚地理解我們自己處理問題時的思考方式AI的動力-計算的4個時代機械計算時代電子計算時代網絡計算時代智能計算時代2020至今AI 的三架馬車 數據是訓練AI模型的原材料,包括結構化(表格)、非結構化(文本、圖像、視頻)和半結構化數據 算力是運行算法所需的計算能力,依賴 硬 件(CPU/GPU/T
16、PU)和 軟 件(并行計算框架)算法是AI實現智能的邏輯規則和數學模型,如機器學習、深度學習、強化學習等案例:AlphaFold(算法)通過海量蛋白質序列數據(數據)和超級計算機(算力)預測蛋白質三維結構https:/ 規模Velocity 高速Variety 多樣Value 價值AI 與數據以前利用統計學的原理、抽樣的方法分析問題。但是,這顯然沒有全部數據更能說明問題全量數據的采集、存儲、處理與分析的需求,推動產生了系列大數據技術,其中的重點在基于分布式技術的數據存儲與處理Big Data:Whole Data(KB、MB、GB、TB、PB、EB、ZB、YB、NB、DB)TB、PB級的結構化
17、、非結構化和半結構化數據。預計到今年,全球數據使用量將達到175ZB(1ZB=270Byte)AI 與數據AI與大數據技術二者聯系密切深度學習 通過大量的樣本數據進行模型訓練,需要應用大數據技術存儲與計算、分析這些數據 大數據技術支撐了人工智能算法的實現 人工智能更像是大數據技術中數據分析技術的高級階段。曾經的數據倉庫、數據挖掘技術AI 與數據數據的重要性怎么強調都不為過!當前,典型個人計算機硬盤的容量為TB量級,而一些大企業的數據量已經接近EB量級如果將機器學習算法比作一架機器,那么數據就是驅動這架機器的燃料,沒有燃料驅動,機器設計得再精巧也只能是擺設。而事實上,數據確實被譽為未來的“石油”
18、AI 與數據數據估計值、全球不同語種的數據不平衡AI與數據人類目前所有印刷品的數據量約為200PB(1PB=250Byte)人類所說過的話的數據量約為4ZB(1ZB=270Byte)人類大腦存儲容量相當于7.6億TBVillalobos,Pablo,et al.Will we run out of data?Limits of LLM scaling based on human-generated data.arXiv preprint arXiv:2211.04325(2022).英語數據占互聯網內容的50%以上,中文數據雖占15%,但方言數據稀缺,小語種數據更是占比不到0.1%數據正在枯
19、竭!AI 的數據 研究機構Epoch AI近日公布的研究預測,到2028年,用于訓練AI模型的典型數據集的規模將達到公共在線文本總量的估計規模Villalobos,Pablo,et al.Will we run out of data?Limits of LLM scaling based on human-generated data.arXiv preprint arXiv:2211.04325(2022).Nature在頭版敲響警鐘AI革命正“吸干”互聯網數據的海洋這意味著,未來幾年內,AI大模型可能會耗盡可用于訓練的高質量數據資源深度學習需要大量的訓練數據,目前的AI技術還是數據驅動的
20、當數據規模越來越大時,神經網絡結構更加復雜的深度學習模型更能夠從大數據中提?。▽W習)到有效的特征,模型性能也隨之非常明顯地上升當數據量較小時,傳統機器學習模型的性能與神經網絡模型的差別不大AI 與數據Preetum Nakkiran,Gal Kaplun,Yamini Bansal,Tristan Yang,Boaz Barak and Iiya Sutskever.Deep double descent:where bigger models and more data hurt.Journal of Statistical Mechanics:Theory and Experiment,2
21、021我們今天正在使用的巨大的數據集,在幾年前是想得而不能的?,F在,大數據無處不在且大得驚人Big Data的單位一般以TB、PB衡量。1PB=1024TBAI 與數據若算力是深度學習的噴氣式發動機,數據則是燃料。吉爾德定律(Gilders Law)保證了燃料供應Gilders Law:主干網帶寬的增長速度至少是運算性能增長速度的三倍,而主干網的網絡帶寬的不斷增長意味著各種新的網絡應用方式的出現和網絡用戶的使用費用的不斷下降(CERNET主干網總帶寬3.15T以上,中國電信主干網總帶寬458T)深度學習的大數據傳輸:AI 與數據算力:就是單位時間內硬件能夠完成的某種運算的量。比如浮點計算、整數
22、計算等1MOPS(Million Operation Per Second):處理器每秒鐘一百萬次(106)操作1GOPS(Giga Operations Per Second):處理器每秒鐘十億次(109)操作1TOPS(Tera Operations Per Second):處理器每秒鐘一萬億次(1012)操作FLOPS(floating-point operations per second):每秒執行浮點運算次數1MFLOPS(Mega FLOPS)每秒一百萬(106)次的浮點運算1GFLOPS(Giga FLOPS)每秒十億(109)次的浮點運算1TFLOPS(Tera FLOPS)
23、每秒一萬億(1012)次的浮點運算1PFLOPS(Peta FLOPS)每秒一千萬億(1015)次的浮點運算MOPS、GOPS和TOPS是操作次數,FLOPS是浮點運算次數哈希率:比特幣網絡處理能力的度量單位,即CPU計算哈希函數輸出的速度。比特幣網絡必須為了安全目的進行密集的數學和加密操作。例如,當網絡達到10Th/s的哈希率時,意味著它可以每秒進行10萬億次計算AI 與算力訓練神經網絡模型,使它像人一樣識別圖片或理解人類語言所需的算力是十分驚人的。深度學習中的模型權重值調整涉及大規模的“矩陣反演”數學運算模型訓練訓練一個大模型,甚至需要1024次的浮點數運算。這就要求計算機的算力足夠強大A
24、I 與算力最簡單的答案就是:有了更強的計算力!為什么現在AI發展的如此神速?Moores law:稱為計算機第一定律,指IC上可容納的晶體管數目,約每隔18/24個月便會增加一倍,性 能 也 將 提 升 一 倍曾經的摩爾定律(Moores law)AI 與算力神經網絡的基礎感知機是上世紀50年代提出的今天,摩爾定律的樂觀已不復存在,CPU性能的提升降至每年不足3%,實現性能翻倍需20年現在芯片線路可達23納米級別,相當于在這個尺度上只能容納10個原子臺積電3納米工藝:每平方毫米集成2.5億晶體管(指甲蓋大約1平方厘米)量變引起質變,產生諸如分子生物芯片、量子芯片等散熱問題AI 與算力CPU性能
25、提升速度大幅放緩,出現八核、十六核、三十二核CPU。通過多核提高CPU性能的方式并沒有從根本上解決問題功耗問題散熱問題軟件支持問題AI 與算力AI加速發展和黃氏定律以英偉達(NVIDIA)公司創始人黃仁勛名字命名的定律黃氏定律(Huangs Law)對AI性能的提升作出預測Huangs Law:GPU將推動AI性能實現逐年翻倍AI 與算力CPU:數學教授GPU:小學生CPU:多核CPU:應用場景廣泛GPU:為多任務而生GPU:成百上千核CPU內部cache以及控制部分占據了很大面積,計算單元占比很少;GPU控制單元很簡單,大部分空間被計算單元占據,因此CPU的核數有限,而GPU則輕松堆出上千核
26、需要對圖像中的每個像素進行相同的運算。圖像一般都會有上百萬個像素。CPU的串行運算效率太低,GPU中的每個核心可對相應 的 像 素 進 行 并 行 計 算CPU與GPU的區別AI 與算力CPU與GPU的區別CPU:不同的核可以執行不同的機器指令,如Core A在運行Word線程的同時Core B可以運行Browser線程,所謂MIMD,(Multiple Instruction,MultipleData)GPU:所有核必須整齊劃一地運行相同的機器指令,只是可以操作不同的數據CPU:中斷處理、內存管理、I/O等等GPU:定位非常簡單,就是純粹的計算GPU:絕不是用來取代CPU的,CPU只是把一些
27、GPU非常擅長的事情交給它,GPU僅僅是充當分擔CPU工作的配角AI 與算力AI 與算力無論CPU還是GPU,其生產過程中都需要最重要的設備光刻機目前最先進的光刻機是荷蘭ASML公司生產的High-NA EUV光刻機,支持2nm制程量產,通過多重曝光技術可進一步延伸至1nm 甚至 0.5nm 荷蘭 ASML 的EUV光刻機自 2019 年起,被禁止向中國出口,該設備用于 7nm 及以下先進制程芯片制造 美國通過出口管理條例要求對涉及 3nm 及以下制程、量子計算等技術的設備和軟件實施全球禁運“卡脖子”問題打破枷鎖上海微電子的 SSX600 系列已實現 90nm制程量產,28nm 光刻機進入產線
28、驗證階段過去只有超級計算機才能完成的計算、幾年前還無法企及的計算速度在今天已成為家常便飯一般的GPU服務器算力在1000GFLOPS左右由國防科技大學和國家超級計算天津中心聯合研制的“天河”新一代超算系統,搭載自研飛騰CPU、天河高速互聯通信技術和麒麟操作系統,持續穩定算力超FLOPS“天河二號”超級計算機算力曾達30.65PFlopsAI 與算力CPU vs GPU vs TPU vs NPU vs QPUAI 與算力在AI的算力中,有哪些計算的處理器?哪種算力最好?指標CPUGPUTPUNPUQPU名稱中央處理器圖形處理器張量處理器神經處理器量子處理器并行性低極高高中高量子并行能效比中中高
29、極高未知通用性最強較強低低極低典型應用通用計算AI訓練、圖形云端AI訓練邊緣推理量子算法代表廠商Intel、AMDNVIDIAGoogle華為、寒武紀IBM、谷歌AI與算法Xu,Y.,Wang,Q.,An,Z.,Wang,F.,Zhang,L.,Wu,Y.,Dong,F.,Qiu,C.-W.,Liu,X.,Qiu,J.,Hua,K.,Su,W.,Xu,H.,Han,Y.,Cao,X.,Liu,E.,Fu,C.,Yin,Z.,Liu,M.,Roepman,R.,Dietmann,S.,Virta,M.,Kengara,F.,Huang,C.,Zhang,Z.,Zhang,L.,Zhao,T.,D
30、ai,J.,Yang,J.,Lan,L.,Luo,M.,Huang,T.,Liu,Z.,Qian,S.,An,T.,Liu,X.,Zhang,B.,He,X.,Cong,S.,Liu,X.,Zhang,W.,Wang,F.,Lu,C.,Cai,Z.,Lewis,J.P.,Tiedje,J.M.,Zhang,J.,Artificial Intelligence:A Powerful Paradigm for Scientific Research,The Innovation(2021),doi:https:/doi.org/10.1016/j.xinn.2021.100179.AI應用層AI+
31、基礎科學AI+工業生產AI+日常生活AI+社會治理AI+網絡空間感知層認知層決策層數據存儲與計算機器學習AI框架AI與算法1943年,Warren McCulloch和WallerPitts提出神經元網絡的數學模型1950年,圖靈提出著名的“圖靈測試”,給出判定機器是否具有“智能”的方法1968年,Feigenbaum提出首個專家系統,孕育第二次AI浪潮1974年,Paul Werbos首次提出了通過誤差反向傳播(BP)來訓練人工神經網絡1982年,John Hopfield發明了霍普菲爾德網絡,是最早的RNN的雛形,振奮了神經網絡領域1985年,Judea Pearl提出了貝葉斯網絡(Bay
32、esian network)1986年,Geoffrey Hinton等人提出了多層感知機(MLP)與BP訓練相結合的理念,開啟神經網絡新一輪高潮1958年,Frank Rosenblatt提出了感知機(Perceptron)的模型人工智能技術萌芽階段神經元圖靈測試感知機SVMRNN雛形貝葉斯1963年,Cortes和Vapnik提出了經典的支持向量機AI與算法CNNLSTM隨機森林LDA深度學習 GAN2001年,Breiman提出隨機森林(Random Forest)2003年,David Blei,Andrew Ng和Michael l,Jordan提出LDA(Latent Dirich
33、let Allocation)1997年,Schmidhuber提出了長短時記憶網絡(LSTM)2006年,Hinton及其學生正式提出了深度學習(Deep Learning)的概念2012年,Alex Krizhevsky,LlyaSutskever和Geoffery Hinton等人提出的AlexNet引發了深度學習領域的革命2013年,深度學習算法變分自編碼器(VAE)被提出2014年,Ian Goodfellow提出生成式對抗網絡(GAN)2015年,Sam Altman等人創建OpenAI1989年,Yann Lecun發明了卷積神經網絡(Convolutional Neural N
34、etwork)人工智能技術沉淀積累階段AI與算法Transformer-BERT-ChatGPT-Llama-GPT4-DeepSeek2016年,AlphaGo與圍棋世界冠軍李世石進行人機大戰,以4-1總比分獲勝2018年,Google提出基于Transformer注意力機制的BERT模型2020年,OpenAI發布大語言模型GPT-32017年,Google提出了Transformer模型2021年,OpenAI提出連接文本與圖像的神經網絡:DALLE和Clip2022年11月,OpenAI發布ChatGPT 2023年3月,OpenAI發布GPT-42023年2月,Meta開源大語言模型
35、Llama2024年12月,深度求索發布并開源DeepSeek-V3人工智能技術快速發展階段AI與算法:神經網絡-追根溯源大腦讓人類成為萬物之靈,而人類對大腦的深層次探索才剛剛開始!Jabr F.How Humans Evolved Supersize Brains.Quanta Magazine,2015,10Mark F.Bear,etc,Neuroscience:Exploring the Brain,Wolters Kluwer,2016神經網絡起源于上個世紀四十年代。1943年時神經科學家麥卡洛克(McCulloch)和數學家皮茲(Pitts)發表論文神經活動中內在思想的邏輯演算,提
36、出了MCP模型McCulloch,Warren S.,and Walter Pitts.A logical calculus of the ideas immanent in nervous activity.The bulletin of mathematical biophysics 5(1943):115-133.AI與算法:神經網絡-發展簡史MCP模型架構雖然相對簡單,但是具有里程碑意義Neuron:神經元Dendrites:樹突Axon:軸突(神經細胞的突起,將信號發送到其他細胞)接受多個輸入(1,2,3,.)產生一個輸出(output)好比神經末梢感受各種外部環境的變化,最后產生電
37、信號AI與算法:神經網絡-發展簡史1958年,計算機科學家弗蘭克 羅森布拉特提出由兩層神經元構建的網絡,并將之命名為感知機(perceptron)基本擁有現今神經網絡主要構件與思想。包括自動學習權重、梯度下降算法、優化器、損失函數等,一定程度上推動神經網絡發展Rosenblatt,Frank.The perceptron:a probabilistic model for information storage and organization in the brain.Psychological review 65.6(1958):386.AI與算法:神經網絡-發展簡史1969年,人工智能之
38、父馬文 明斯基(1969圖靈獎)在其著作中證明了感知機本質上是一個線性模型,其連最基本的異或問題都無法解決=+x1x1ANDORXOR00000010111001111110Minsky,Marvin,and Seymour Papert.An introduction to computational geometry.Cambridge tiass.,HIT 479.480(1969):104.AI與算法:神經網絡-發展簡史1986年杰弗里 埃弗里斯特 辛頓提出適用于多層感知機的BP算法多層感知機BP算法Rumelhart,David E.,Geoffrey E.Hinton,and Ro
39、nald J.Williams.Learning representations by back-propagating errors.nature 323.6088(1986):533-536.AI與算法:神經網絡-發展簡史在層與層之間的傳播過程中引入了Sigmoid激活函數,為神經網絡引入了非線性能力,改良了感知機無法解決異或問題的缺陷為神經網絡引入了非線性激活函數,提升了建模能力。事實上,額外的隱藏層并不能提升輸入和輸出之間復雜關系的建模能力左圖是一個以Sigmoid作為隱藏層激活函數的兩層神經網絡。通 過 調 整 參 數 1=(11,12),=(1,2)和2=(11,21)的值,可以不
40、斷地改變目標函數的形狀。AI與算法:神經網絡-發展簡史AI與算法:淺層學習與深度學習神經元-感知機-神經網絡-淺層學習-深度學習2018年的圖靈獎頒給三位AI巨頭Geoffrey Hinton(杰弗里辛頓)、Yann LeCun(楊立昆)以及Yoshua Bengio(約書亞本吉奧)(深度神經網絡DNN)AI與算法:深度神經網絡模型-3位奠基人2024年,約翰 霍普菲爾德(John J.Hopfield)與杰弗里 辛頓(Geoffrey E.Hinton)因“使用物理學訓練人工智能神經網絡”獲諾貝爾物理學獎AI與算法:深度神經網絡模型-3位奠基人“卷積神經網絡(CNN)之父”,提出了首個正式的
41、卷積神經網絡模型 LeNet-5(1998 年),成功應用于手寫數字識別。他推動了 CNN 在圖像識別、計算機視覺領域的發展。Yann LeCun“神經網絡之父”,早期提出反向傳播算法和深度網絡訓練方法,奠定了現代深度學習的理論基礎。Geoffrey HintonYoshua Bengio自然語言處理領域的先驅,提出了基于神經網絡的語言模型(如神經概率語言模型),并推動了深度學習在序列數據(如文本、語音)中的應用AI與算法:深度神經網絡模型-CNN卷積神經網絡(CNN)是一種專門為處理具有網格結構數據(如圖像)而設計的深度學習模型卷積層池化層卷積層池化層輸出層全連接層 卷積層:利用卷積核提取輸
42、入數據中的特定特征 池化層:主要功能是對特征圖進行下采樣,以減少數據量和計算量 全連接層:將提取到的特征進行整合,以完成分類或回歸任務LeCun Y,Boser B,Denker J S,et al.Backpropagation applied to handwritten zip code recognition.Neural Computation,1989AI與算法:深度神經網絡模型-RNN循環神經網絡(RNN)是一種專門處理序列數據的深度學習模型,其核心特點是通過循環連接保留歷史信息,從而捕捉數據中的長期依賴關系隱藏層輸入輸出 RNN由輸入層、隱藏層、輸出層構成,具有多種架構 隱藏層
43、的輸出不僅傳遞給輸出層,還反饋回自身,形成時間維度上的鏈式結構 理論上,RNN 可以記住任意長時間的信息,但實際中受梯度消失/爆炸問題限制,難以處理長距離依賴Ian Goodfellow,Yoshua Bengio&Aaron Courville.Deep learning.MIT Press,www.deeplearningbook.org 輸入門輸出門記憶元AI與算法:深度神經網絡模型-LSTM長短時記憶網絡(LSTM)是一種特殊的RNN,主要應用于序列任務,解決了RNN在處理長序列時的梯度消失或梯度爆炸問題遺忘門LSTM引入了記憶元、遺忘門、輸入門、輸出門Ian Goodfellow,Y
44、oshua Bengio&Aaron Courville.Deep learning.MIT Press,www.deeplearningbook.org AI與算法:AI框架TensorFlow是由Google開發和維護的開源機器學習框架,于2015年首次發布。它最初是為了滿足Google 內部研究和產品開發的需求而創建的,但很快就成為了全球范圍內最受歡迎的深度學習框架之一PyTorch是由Facebook的AI研究團隊開發的開源深度學習框架,于 2016 年發布。它以其簡潔易用的 API 和動態計算圖的特性受到了廣大研究者和開發者的喜愛特點TensorFlowPyTorch計算圖默認靜態計
45、算圖動態計算圖API復雜度相對復雜簡潔直觀可視化有強大的可視化工具TensorBoard可通過第三方庫實現可視化中國AI發展歷程1950s-1990s起步階段2000s-2010s快速發展期2020s至今全面爆發期理論研究萌芽:早期聚焦機器學習與模式識別,中科院等機構奠定基礎政策初探:1990年代國家“863”計劃首次將AI納入重點領域互聯網驅動:百度、阿里、騰訊布局人工智能,推出語音助手、搜索引擎優化技術技術突破:2010年后深度學習興起,DeepSpeech語音識別、騰訊優圖人臉識別技術國際領先大模型崛起:DeepSeek R1、悟道等萬億參數模型實現低成本訓練與長思維推理,躋身國際第一陣
46、營生態擴張:開源鴻蒙、開源歐拉等開源社區推動技術普惠,企業應用滲透率達42%我國的AI2025年中國人工智能計算力發展評估報告核心技術與創新突破基礎技術核心技術前沿探索算法創新深度學習:百度PaddlePaddle、華為MindSpore框架支持分布式訓練強化學習:DeepSeek R1通過大規模強化學習提升數學與科學推理能力2025年中國人工智能計算力發展評估報告算力突破國產芯片:昇騰、寒武紀等AI芯片支撐萬億級模型訓練,2025年智能算力達1,037.3 EFLOPS綠色計算:液冷技術、異構計算降低能耗,算力效率提升50%自然語言處理:機器翻譯(如騰訊翻譯君)、智能寫作(如Dreamwri
47、ter)覆蓋多語種場景機器視覺:??低暟卜老到y、醫療影像診斷(如聯影AI)實現毫米級精度多模態融合:華為鴻蒙分布式能力支持跨設備協同,阿里云ET實現視頻-語音-文本多模態分析AI for Science:藥物研發(如晶泰科技)、氣候預測模型加速科研進程量子AI:本源量子與中科大合作開發量子機器學習算法,適配量子硬件我國的AI中國人工智能發展困境困境一:中國在AI高端人才數量、AI基礎算法創新、AI基座大模型能力、基座大模型訓練數據、基座大模型訓練算力等,都與美國存在一定差距困境二:高端算力產品禁售、高端芯片工藝長期被卡。國內可滿足量產的工藝節點落后國際先進水平2-3代,核心算力芯片落后國際先
48、進水平2-3代困境三:國內智能計算生態孱弱,AI開發框架滲透率不足。研發人員、開發工具、資金投入、市場占比遠落后于英偉達。國內企業山頭林立,智能應用、開發框架、系統軟件、智能芯片每層都有相關產品,但各層間無深度適配困境四:AI應用于行業時成本、門檻居高不下。從互聯網行業遷移至非互聯網行業時,遷移難度大、單次使用成本高。AI領域人才數量于實際需求相比明顯不足我國的AI中國人工智能發展的道路選擇追趕兼容美國主導的A體系:大多數互聯網企業走GPU/CUDA兼容道路,很多芯片領域的創業企業在生態構建上也是盡量與CUDA兼容,該道路較易實現選擇一:統一技術體系走閉源封閉,還是開源開放的道路?構建專用封閉
49、的B體系:在專用領域構建企業封閉生態,基于國產成熟工藝生產芯片,關注特定領域的垂直大模型,采用領域專有高質量數據。缺點:封閉,無法凝聚國內大多數力量,難以實現全球化構建全球共建開源開放的C體系:用開源打破生態壟斷,降低企業擁有核心技術的門檻。用開放形成統一的技術體系,我國企業與全球化力量聯合構建基于國際標準的統一智能計算軟件棧。共享高質量數據庫,共享開源基座大模型我國的AI中國人工智能發展的道路選擇選擇二:拼算法模型,還是拼新型基礎設施?我國80%的中小微企業需要低門檻、低價格的智能服務,因此我國智能計算產業必須建立在新的數據空間基礎設施上我國政府已前瞻性地提前布局了新型基礎設施,在世界各國的
50、競爭中搶占了先機數據已成為國家戰略信息資源。數據具有資源要素與價值加工兩重屬性,我國應繼續加大力度建設國家數據樞紐與數據流通基礎設施。一體化算力網建設在推動算力的基礎設施化上發揮了先導作用。中國方案的算力基礎設施化需實現“兩低一高”:降低使用成本和門檻,提供普適的高通量、高品質智能服務。在供給側降低成本,讓中小企業能消費、愿開發;消費側降低門檻,公共服務要易獲取、易使用。服務效率要低熵高通量,高并發時系統也能高效運行,“算得多”對中國意義重大。AI大模型就是數據空間的一類算法基礎設施。以通用大模型為基座,構建大模型研發與應用的基礎設施,支撐廣大企業研發領域專用大模型我國的AI中國人工智能發展的
51、道路選擇選擇三:AI+著重賦能虛擬經濟,還是發力實體經濟?AI 技術成功在于降低成本、擴大規模對比維度中國美國經濟結構偏好實體經濟(制造業占比27%)虛擬經濟(制造業GDP占比11%)AI應用領域智能制造、工業機器人、新能源虛擬現實、元宇宙、區塊鏈、大模型代表性行業裝備制造、醫藥互聯網、金融科技中國要走適合自己的AI賦能實體經濟高質量發展之路中國制造業產業門類全、體系完整、場景與數據豐富中國應選重點行業加大投入形成推廣模式,解決AI 賦能實體經濟中算法與物理機理融合難點我國的AI第二部分第二部分 新一代人工智能新一代人工智能 大語言模型 Transformer 強化學習 自然語言處理 自監督學
52、習 ChatGPT與DeepSeek語言的邊界就是思想的邊界。維特根斯坦邏輯哲學論什么是大語言模型?大語言模型(LLM)是指通過海量數據訓練、具有超大規模參數的預訓練人工智能模型,其核心在于通過深度神經網絡學習數據中的通用規律,實現跨任務、跨領域的智能處理能力什么是大語言模型?大語言模型的核心技術根植于自監督學習、強化學習和Transformer架構中 自監督學習為起點:通過無標注數據預訓練,賦予模型基礎智能,如語言理解、邏輯推理 強化學習為終點:通過人類反饋微調,將基礎智能轉化為符合人類需求的實際能力,如對話交互、任務執行 Transformer為基礎:提供并行計算和長距離依賴能力,支撐自監
53、督學習的海量數據訓練和強化學習的策略優化自監督學習數據 x分成x和 x:x輸入模型,讓輸出 y 與 x越接近越好學習兩部分的相似或不相似進行編碼來構建表征標注師自監督學習是一種利用無標注數據,通過設計代理任務自動生成監督信號進行訓練的機器學習方法,無需人工標注數據而監督學習依賴人工標注數據,模型直接通過標注信號優化自監督學習可以緩解數據標注成本,提升模型泛化性,更加適應開放場景強化學習Sutton,R.S.;and Barto,A.G.2018.Reinforcement learning:An introduction.MIT press強化學習(Reinforcement Learning
54、)是一種機器學習方法,智能體(Agent)通過與環境的交互,基于獎勵(Reward)和懲罰機制,學習最優決策策略,目標是最大化長期累積獎勵智能體(Agent):執行決策的主體環境(Environment):智能體所處的動態場景獎勵(Award):環境對智能體的反饋信號策略(Policy):智能體從狀態到動作的映射規則價值函數(Value Function):評估狀態或動作的長期收益期望核心要素強化學習-RLHFZhao W X,Zhou K,Li J,et al.A survey of large language modelsJ.arXiv preprint arXiv:2303.18223
55、,2023.RLHF 系統主要包括三個關鍵組件:要對齊的 PLM、從人類反饋中學習的獎勵模型,以 及訓練 LM 的 RL 算法RLHF 使用收集到的人類反饋數據對LLM 進行微調,有助于改進對齊的指標。RLHF 采用強化學習(RL)算法,通過學習獎勵模型使 LLM 適配人類反饋基于人類反饋的強化學習(RLHF)DeepMind團隊在Nature發表DQN算法,用CNN處理游戲畫面,得分超過人類2013:DQN突破A3C算法提出,大幅提升分布式訓練效率2016:Actor-Critic改進AlphaGo擊敗李世石,融合蒙特卡洛樹與價值/策略網絡2016:AlphaGo里程碑OpenAI提出PPO
56、算法,成為工業界的主流選擇2017:魯棒算法普及Schulman,John,et al.Proximal policy optimization algorithms.arXiv preprint arXiv:1707.06347(2017).Mnih,Volodymyr,et al.Playing atari with deep reinforcement learning.arXiv preprint arXiv:1312.5602(2013).Mnih,Volodymyr,et al.Asynchronous methods for deep reinforcement learning
57、.International conference on machine learning.PmLR,2016.AlphaStar(星際爭霸AI)OpenAI Five(Dota2 AI)展示復雜多智能體協作能力2020:多智能體突破強化學習-發展簡史強化學習成為生成式 AI 的重要核心技術之一TransformerTransformer=編碼器(encoder)+解碼器(decoder)Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N.Gomez,Lukasz Kaiser,Illia Po
58、losukhin,Attention Is All You Need,arXiv:1706.03762v7 cs.CL 2 Aug 2023Transformer 最初用于機器翻譯任務,成為自然語言處理領域的里程碑式突破,并推動了大模型時代的到來編碼器:處理輸入序列(如源語言句子),生成上下文表示解碼器:生成目標序列(如目標語言句子),同時利用編碼器的輸出注意力機制:使神經網絡在每個時間步只聚焦于某些重要/相關元素的一種計算機制任務解決能力特定任務輔助無偏任務特征學習可移值 NLP 任務解決泛化目標任務解決n-gram 模型Word2vec、NLPELMO、BERT、GPT-1/2GPT-3/
59、4、ChatGPT、Claude統計學方法概率估計在特定任務中輔助靜態詞匯表征神經語境建模解決典型的 NLP 任務語境感知表征預訓練+微調解決多樣化的 NLP 任務擴展語言模型依據提示完成解決豐富基于真實世界的任務1990s201320182020統計語言模型神經語言模型預訓練語言模型大語言模型自然語言處理-發展簡史視覺大模型語音大模型多模態大模型從統計語言模型到大語言模型GPTOpenAI GPT發展及多語言支持*上述數據均源自模型的公開論文及技術介紹支持英語及部分西歐語言支持數十種語言,包括主要西歐語言,增加部分東歐和亞洲語言支持約 30 種語言支持約 50 種語言能夠處理和生成約100種
60、語言的文本3.5英語中文西班牙語法語德語葡萄牙語阿拉伯語印地語俄語日語韓語土耳其語波斯語意大利語波蘭語印度尼西亞語越南語希伯來語荷蘭語瑞典語目前OpenAI GPT4主 要 支 持 2 0 余 種高資源語言+=14.8萬億token 訓練成本550萬$DeepSeek-V2 DeepSeek-V3 DeepSeek-R 671B參數DeepSeek-V3基本原理DeepSeek依托算法創新和算力優化,在開源數據上實現多項頂尖能力DeepSeek進化路徑算力大模型數據算法DeepSeek公司成立DeepSeek-7BDeepSeek-MoEDeepSeek-67BDeepSeek LLMDeep
61、Seek CoderDeepSeek MathDeepSeek-V2DeepSeek-V3DeepSeek-R12023.42023.62023.92023.122024.12024.22024.52024.122025.1DeepSeek-R1重要意義強推理模型讓大模型領域再次迎來“ChatGPT”時刻ChatGPTLlamao1/o3DeepSeek-R1首次提出開源復現“有限算力+算法創新”的發展模式是突破算力卡脖子的關鍵未來應聚焦“高效”:圍繞高效模型架構、高效強化學習、高效算力利用開展研究高效模型架構稀疏模型架構長序列理解與生成高效強化學習高效訓練-提升數據利用效率高效思考-提升思考
62、信息密度高效算力利用低位寬高效并行框架訓推一體的強化學習框架DeepSeek為什么DeepSeek會引起全球性的科技震撼?“規模法則(Scaling Law)”是否已遇天花板?ChatGPT與DeepSeek-未來人腦約有1000億個神經元、1000萬億個突觸。而DeepSeek-V3的模型參數量為6710億,GPT4的模型參數量為1萬億,數量級上與人腦有很大的差距。讓人工智能像人一樣思考,還有很長的路要走,擁有人一樣的智能更是路漫漫!據估算,GPT4的訓練成本約為1億美元,訓練耗電相當于1000戶家庭5至6年的用電量。如此巨大的開銷,加上日益枯竭的訓練數據,是否說明“數據驅動,算力堆砌”的人
63、工智能開發路徑是不可持續的?人工智能未來的發展方向是什么呢?具身智能?量子AI?世界模型?第三部分第三部分 人工智能人工智能+AI4Education AI4Science AI+政務 AI+新質生產力 AI4Life AI正在接替部分職業AI4Education知識學校課堂網絡資源“嗶站大學”課外活動實踐項目DeepSeek無法滿足個性化學習需求學生有其各自的興趣、風格、能力對課程的期待和目的多樣化標準化課堂無法滿足個性化學習需求培養目標不只是知識傳授能力建設價值引領教學以上問題,傳統課堂難以有效解決知識探究人格養成“傳道授業解惑”渠道廣課堂獲取比例下降觀念層面工具層面工具層面學科層面教師認
64、為 AI正成為獨特的交叉研究領域師生認為 AI 對大學的知識傳授、知識創新與生活方式產生影響學生嘗試 AI輔助學習、研究教師嘗試 AI輔助教學AI4EducationAI 對大學的賦能與重塑勢不可擋AI4EducationAI教學評價教學環境教學過程教學內容教學管理教學方法教學手段教學設計教學目標學科專業轉型升級110203040500NAI專業AI+專業AI+微專業AI+實驗實踐項目數字化教材AI+課程AI賦能教學應用引導教師合理使用AI,鼓勵開展探索研究如何適應AI發展?如何實現AI賦能教育教學?如何改?技術上數智化教學AI+AI4Education角色關系:AI構建三維互動網絡管理者-教
65、師:精準賦能通過教學行為分析平臺,識別教師教學風格與效率,提供個性化培訓方案(如為新手教師推送示范課例庫)教師-學生:動態適配基于學習畫像數據,教師可實時調整分組策略(如將編程薄弱學生與擅長者組隊),并生成差異化培養方案學生-管理者:反向優化學生行為數據(如圖書館資源使用頻率、在線課程完課率)通過AI建模,反向指導校園資源配置AI4Education深度利用:三大場景突破管理場景:從經驗決策到數字孿生虛擬校園沙盤:通過 AI 模擬不同招生政策、課程改革對教學資源的影響,輔助制定招生方案校友價值挖掘:用知識圖譜分析校友職業軌跡,智能匹配在校生導師資源,形成 在校生-校友-企業 的人才培養閉環教學
66、場景:從單向傳授到認知共建思維鏈可視化工具:教師可通過 AI 拆解學生解題邏輯,針對性設計認知沖突環節跨學科項目生成器:輸入學生專業背景與興趣標簽,AI 自動推薦跨學院合作課題學習場景:從被動接受到自主建構元認知訓練系統:AI 通過對話日志分析,指出學生認知偏差(如過度依賴記憶而非理解),推送針對性訓練模塊職業模擬實驗室:結合大語言模型與虛擬現實,模擬企業真實項目場景AI4Education協同創新:AI驅動的教育生態重構數據中臺建設打通教務、科研、生活等多源數據,構建學生成長數字孿生體,實現從入學到就業的全周期追蹤人機協同教研教師與AI共同開發 彈性課程包:AI負責基礎知識點講解,教師專注高
67、階思維訓練倫理治理框架建立AI教育應用白名單制度,對學生數據采集范圍、算法決策透明度等制定明確規范構建課程知識庫AI4Education教學目標教學大綱課件PPT教學參考書定制AI 助教指令微調檢索增強強化反饋學科知識課程知識材料生成學習輔導評價反饋上傳教學視頻與教材文檔輕松定制課程 AI 助教自主定制 AI 助教整合教學課件材料,課程知識庫生成,智能問答提供AI助教開發平臺,教師自主定制,個性化教學上傳教學視頻與教材文檔輕松定制課程 AI 助教AI4Education國家智慧教育公共服務平臺https:/ 智能備課 教學分析 學情分析 作業批改 智能問答 學習定制 智能學伴 場景學習 語言學
68、習 智能五育 智能測評 學業評估 綜合評價 學術評估 學生畫像 學習預警 智能選課 智能排課 課堂評價 智能控制“AI”助學“AI”助評“AI”助管AI4ScienceAI For Science-AI For Engineering微觀(science)電子、原子和分子材料、化學、分子學宏觀(engineering)速度、應力、電流機械、化工、土木等火箭模擬飛機模擬發動機模擬高分子材料模擬火箭模擬動力電池模擬化學反應模擬半導體模擬藥物分子模擬地質模擬AI4ScienceScience for AIAI for Science2024年諾貝爾物理學獎基于統計物理提出人工智能計算的基礎2024年
69、諾貝爾化學獎基于人工神經網絡提出蛋白質結構預測模型架構約翰霍普菲爾德杰弗里E辛頓戴維貝克 德米斯哈薩比斯約翰江珀一個時代的開始:新的科研范式 AI for ScienceAI4Science該團隊利用 RoseTTAFold 生成自然界不存在的蛋白質,可 100%中和眼鏡蛇毒素,未來有望替代傳統抗蛇毒血清,解決成本高、穩定性差的問題RoseTTAFold 是由美國華盛頓大學 David Baker(獲2024年諾獎化學獎)團隊開發的蛋白質結構預測工具,于 2021 年首次發布通過深度學習技術,實現了從氨基酸序列快速解析蛋白質三維結構的突破其核心創新在于采用三軌神經網絡架構,同時整合一維序列信息
70、、二維殘基間相互作用以及三維幾何結構特征,顯著提升了預測準確性和效率AI4Life-寫菜譜AI4Life-文生圖幫我生成圖片:以寫實的風格展示布達拉宮前蹲著一頭牦牛。幫我生成圖片:為我生成一個生肖相關的Logo,包含羊和龍,帶些藏族元素。AI4Life-文生圖浩瀚宇宙中一位女宇航員正在火星上昂首闊步地走向廣角鏡頭Dall-E2豆包DeepSeek-R1AI4Life-寫代碼AI+政務DeepSeek 已覆蓋全國多省市政務系統,在智能問答、公文處理、熱線調度等場景實現高效應用,顯著提升政府工作效率與服務質量,如公文審核時間縮短 90%、工單處理效率提升 60%,并推動政務服務向智能化、精準化轉型
71、DeepSeek在政務領域應用面臨資源浪費、內容可信度、數據安全、系統依賴及責任界定模糊等多重風險通過強化頂層設計、優化資源配置、筑牢數據安全防線、構建可信可控的技術生態,推動 DeepSeek 在政務領域的穩健發展AI+新質生產力人工智能的核心引擎作用 科技突破:為基礎研究(如材料、醫藥)提供了新路徑,國家專項部署強化其原動力地位 產業賦能:生成式AI通過通用性與自然語言融合,深度賦能政務、金融等垂直領域 勞動者塑造:智能機器人輔助生產,同時培養復合型人才以適應數字經濟需求中國特色發展路徑:以技術自主創新為核心,通過深化產學研協同、推動人工智能與實體經濟融合、培育數字人才、健全治理體系,實現
72、高質量發展與全球競爭力提升AI正在接替部分職業客戶服務聊天機器人和虛擬助手處理咨詢、訂單及售后等標準化任務制造業流水線AI驅動的機器人在重復性體力勞動中廣泛應用,提升效率并降低成本金融財務算法交易、智能風控模型和自動化財務分析工具覆蓋風險評估、信貸審批及基礎數據分析等工作人工智能V.S.面對人工智能的快速發展有人為此著迷,有人對此心存恐懼,但人人都應該明白一點:人工智能正在深刻地改變著我們的工作、學習、生產、生活方式和社會結構。AI技術可能會發生巨大的變化,但AI發展的趨勢不可逆轉、無法回避、時不我待!智能交通無人駕駛智能醫療智能教育人機交互各類機器人語音翻譯人臉識別AI正在接替部分職業謝謝大家!敬請批評指正!