《中國聯通:2025年DeepSeek洞察與大模型應用-人工智能技術發展與應用實踐報告(37頁).pdf》由會員分享,可在線閱讀,更多相關《中國聯通:2025年DeepSeek洞察與大模型應用-人工智能技術發展與應用實踐報告(37頁).pdf(37頁珍藏版)》請在三個皮匠報告上搜索。
1、 DeepSeek洞察與大模型應用人工智能技術發展與應用實踐聯通數據智能有限公司史樹明2025年-1-目錄Contents0203 0104 05-2-DeepSeek是私募量化巨頭幻方量化旗下的一家大模型企業,成立于2023年5月份?;梅搅炕癄I收:作為中國頭部量化對沖基金,曾管理資金規模超160億美元(2019年),年管理費收入超過3億美元。DeepSeek公司概況-3-DeepSeek-V3(對標GPT-4o)于2024年12月26日推出,因其顯著的性能,用戶迅速開始增長Deepseek-V3仍是基于Transformer架構的模型,是一個強大的混合專家(MoE)模型,總共有 671B 個
2、參數,生成每個token時激活 37B 參數訓練成本比 Llama 405B 低一個量級DeepSeek-V3所采用的技術:MLA多頭潛在注意力機制(降低顯存占用)MTP多token預測(提升效果、提升推理速度)FP8混合精度訓練、DualPipe流水線、MoE負載均衡(提升訓練效率,降低訓練成本)DeepSeek-V3多項評測成績超越了Qwen2.5-72B和Llama-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。DeepSeek-V3-4-R1推出后,追平GPT-o1,迅速出圈海外。從DeepSeek在美國下載排
3、名從1月22日的201名,迅速在1月27日登頂第一名;截止1月30日,DeepSeek在168個國家位居下載榜第一名DeepSeek-R1-Zero:一種通過大規模強化學習(RL)訓練的模型,沒有監督微調(SFT)作為初步步驟,展示了卓越的推理能力。通過強化學習,R1-Zero自然而然地出現了許多強大而有趣的推理行為;但是,遇到了可讀性差和語言混合等挑戰DeepSeek-R1:為了解決這些問題并進一步提高推理性能,DeepSeek團隊引入了 R1,它在RL之前結合了多階段訓練和少量冷啟動數據。R1在推理任務上實現了與OpenAI-o1-1217相當的性能DeepSeek-R1(對標GPT-o1
4、)于2025年1月20日推出,隨后DeepSeek進一步出圈DeepSeek-R1-5-DeepSeek模型效果(1/2):世界最頂尖模型的對比大模型競技場(Chatbot Arena LLM Leaderboard,https:/lmarena.ai/?leaderboard)更新日期:2025-2-11n DeepSeek-V3和R1進入到國際頂尖模型行列n DeepSeek-R1是綜合效果最好的開源模型,排在眾多優秀的開源和閉源模型前面n Qwen2.5-Max、GLM-4-Plus、Step-2-16K-Exp等國產模型也有不俗的表現-6-DeepSeek模型效果(2/2)n Deep
5、Seek-V3和R1相對于700億以下開源模型(以千問720億為代表),擴充了其能力邊界n DeepSeek-R1引入能力,在代碼、數學、復雜規劃等方面的能力顯著增強,使得對于新場景的支持成為可能-7-DeepSeek不同版本對比n V3 vs.R1:R1在普通的中文和英文任務上性能小幅領先,在數學和代碼等需要深度推理的場景下明顯勝出n R1蒸餾版 vs.R1滿血版:在數學、代碼等場景下的性能有明顯差距,蒸餾版參數量越小,與滿血版差距越大n R1蒸餾版 vs.V3滿血版:140億以上參數的R1蒸餾版的深度推理效果顯著強于V3滿血版;低參數量R1蒸餾版能力落后于V3模型AIME 2024MATH
6、-500GPQA DiamondLiveCodeBenchCodeForcespass1pass1pass1pass1ratingR1的15億蒸餾版(基于千問)28.9 83.9 33.8 16.9 954R1的70億蒸餾版(基于千問)55.5 92.8 49.1 37.6 1189R1的140億蒸餾版(基于千問)69.7 93.9 59.1 53.1 1481R1的320億蒸餾版(基于千問)72.6 94.3 62.1 57.2 1691R1的80億蒸餾版(基于Llama)50.4 89.1 49.0 39.6 1205R1的700億的蒸餾版(基于Llama)70.0 94.5 65.2 5
7、7.5 1633DeepSeek-R179.8 97.3 71.565.92029DeepSeek-V339.2 90.2 59.136.21134模型架構參數量激活參數R1的15億蒸餾版稠密1.5B1.5BR1的70億蒸餾版稠密7B7BR1的140億蒸餾版稠密14B14BR1的320億蒸餾版稠密32B32BR1的80億蒸餾版稠密8B8BR1的700億的蒸餾版稠密70B70BDeepSeek-R1MoE671B37BDeepSeek-V3MoE671B37B模型參數量:顯存占用激活參數:推理速度-8-DeepSeek出圈原因分析1.DeepSeek-R1的卓越性能表現2.DeepSeek-V3
8、的超低訓練開銷OpenAI奧特曼:“DeepSeek是一個令人印象深刻的模型,但我們相信我們會繼續開拓前沿并推出出色的產品,所以很高興能有另一個競爭對手?!盡eta扎克伯格:“DeepSeek技術非常先進。這是一場差距很小的競爭?!彪m然DeepSeek已證明研發AI所需的資金和算力比之前預想的要少,但Meta不會因此減少AI支出:“我仍然認為,從長遠來看,大力投入資本支出和基礎設施建設將成為一種戰略優勢?!本矸e神經網絡之父Yann LeCun:“與其說中國AI正在追趕美國,不如說開源模型正在超越閉源”。Anthropic CEO達里奧阿莫迪:我認為一個公平的說法是“DeepSeek 生產的模型
9、接近 7-10 個月前美國模型的性能,成本要低得多(但遠不及人們建議的比例)”Scale AI創始人亞歷山大王:“DeepSeek可能改變中美在人工智能競賽中的格局”游戲科學創始人馮驥:”DeepSeek,可能是個國運級別的科技成果?!薄叭绻幸粋€AI大模型做到以下任何一條,都是超級了不起的成就,但DeepSeek全部同時做到了:強大、便宜、開源、免費、聯網、本土”面壁智能首席科學家劉知遠:“DeepSeek的意義更像Llama。DeepSeek R1相當于是像2023年初的OpenAI ChatGPT一樣,讓所有人真正地感受到了震撼”V3訓練開銷&R1效果引發全球熱議ChatGPTLlama
10、o1/o3DeepSeek-R1首次提出開源復現DeepSeek V3效果對標頂級閉源模型,訓練成本比LLaMA低一個量級30.82.802040Llama 3.1 405BDeepSeekV3 671B下降一個量級訓練耗時單元:萬GPU小時DeepSeek-V3MMLU 得分API價格¥/M tokens908286lLlama3.1-405BlGPT-4olQwen2.5-72BlQwen2.5-72BlClaude 3.5 SonnetlDeepSeek-2.5lGPT-4o mini模型性能/價格比最優區間(對數坐標)10010-9-DeepSeek影響:門檻全面降低,千行百業加速融A
11、IDS作為一款現象級應用,對全社會開展了一次人工智能科普再教育,DS C端應用人人裝,人人感受人工智能,政府、企業管理者認識到人工智能戰略意義,由探索嘗試,升級為戰略布局,市場進入爆發期DS上線20日,日活超4000萬,已達到ChatGPT 74%,成為C端現象級應用。微信、釘釘等頭部應用紛紛接入截至2月15日,全國10省省委書記將人工智能作為新春第一會重點部署,B端大模型應用進一步加速省份要求廣東集中發力人工智能和機器人領域浙江加快建設創新浙江、因地制宜發展新質生產力廣西不能妄自菲薄、行動遲緩江西強化企業科技創新主體地位,推動科研成果向現實生產力轉化安徽在搶占科技制高點上奮勇爭先江蘇找準“一
12、中心一基地一樞紐”甘肅著力提升科技創新效能,深入實施研產融合科技攻關賦能計劃重慶部署實施“人工智能+”行動山東建立科技創新和產業創新融合機制湖北到2030年,具有全國影響力的科技創新高地加快形成-10-DeepSeek影響:格局被打亂,AI競爭進入第二階段C端AI應用市場格局重構,新入局者迎來機遇B端客戶全面評估DS影響,重新論證基礎模型選型DS國內登頂、全球僅次于GPT,月均活躍用戶數躍居第一,全球全端DAU近1.2億;納米AI搜索(原360)將其核心模型換為DS 1月web端訪問量登頂、APP端增速位列第2某機構接國家FGW通知,全面評估DS影響,組織專題論證會,重新評估基礎模型選型,由原
13、某公司大模型為主,轉為吸納多家模型,重點引入DS山東省委書記于開年第一天工作會上,明確部署省數據局研究DS,研究人工智能某央企董事長在開年第一天即召集全管理層會議,開展 AI 全面賦能生產運營工作部署中石油、中石化、南網、星網、中廣核、中鋁等央國企均在擁抱對接或重新研判DS開源策略全面沖擊基礎模型商業模式,將大廠在C端、B端過去一年構建的技術優勢拉回同一起跑線,市場競爭從一階段比拼模型能力,進入比拼應用、數據、工程化交付能力的第二階段-11-目錄Contents0203 0104 05-12-中美在AI領域的對比:人才與技術n 我國高端人才的數量和密度跟美國有明顯差距n 我國AI領域重大原創性
14、成果的數量落后于美國人工智能領域被引用最多的100篇論文(20202022)-13-中美在AI領域的對比:企業n 中美頭部高科技企業的市值差距非常顯著n 我國AI獨角獸的數量和估值落后于美國n 頭部高科技企業n 美國7大科技公司市值:均在萬億美元以上,合計約18萬億美元n 中國7大科技公司市值:第一名5600億美元,合計約1.4萬億美元n AI獨角獸-14-中美在AI領域的對比:GPU芯片中美l英偉達:擁有A100、H100、B200等GPU芯片,性能和穩定性遙遙領先,又有CUDA生態加持,在AI芯片市場牢牢占據主導地位lAMD:MI300系列lGoogle:TPUlGroq:高性能AI推理芯
15、片l博通:在ASIC(專用集成電路)定制芯片領域表現突出,2024年市值突破萬億美元l華為:昇騰系列芯片,產品性能和銷量國內領先,910B性能對標A100l其它國產芯片廠商:海光、寒武紀、燧原科技、沐曦、天數智芯、摩爾線程、壁仞科技、昆侖芯科技、阿里平頭哥等n 美國企業在GPU芯片領域占據絕對優勢,尤其英偉達芯片性能高、生態成熟n 國產芯片近幾年進步很快,但在性能、產能、軟件適配和生態方面還有顯著差距vs.-15-中美在AI領域的對比:頭部大模型n 在模型效果上,中國大大縮小了與美國的差距,呈現與美國平分秋色的格局n 模型開源領域:DeepSeek超越Meta,成為效果最好的開源模型,阿里巴巴
16、千問系列模型下載量超過Meta的Llama系列模型廠商國家代表性模型及競技場排名是否開放模型權重谷歌(Google)美國Gemini-2.0-Flash-Thinking-Exp-01-21,#1Gemini-2.0-Pro-Exp-02-05,#1不開放OpenAI美國ChatGPT-4o-latest(2025-01-29),#1o1-2024-12-17,#4不開放DeepSeek中國DeepSeek-R1,#4DeepSeek-V3,#9Deepseek-v2.5-1210,#17開放阿里巴巴中國Qwen2.5-Max,#7Qwen2.5-plus-1127,#16Qwen2.5-72
17、B-Instruct,#33不開放不開放開放智譜中國GLM-4-Plus-0111,#9不開放階躍星辰中國Step-2-16K-Exp,#9不開放xAI美國Grok-2-08-13,#16不開放零一萬物中國Yi-Lightning,#16不開放Anthropic美國Claude 3.5 Sonnet(20241022),#16Claude 3.5 Sonnet(20240620),#23不開放Meta美國Meta-Llama-3.1-405B-Instruct-bf16,#21Llama-3.3-70B-Instruct,#33開放Mistral AI法國Mistral-Large-2407,
18、#37Mistral-Small-24B-Instruct-2501,#50開放-16-DeepSeek對中美科技競爭產生深刻影響美參議員提出2025年美國與中國人工智能能力脫鉤法案,有脫鉤風險 特朗普:“DeepSeek的技術進步為美國敲響了警鐘”美國新任白宮新聞秘書卡羅琳萊維特:“白宮正在努力確保美國人工智能的主導地位,美國國家安全委員會正對DeepSeek開展國家安全調查”美國商務部長提名人霍華德盧特尼克:指責 DeepSeek 抄襲美國科技公司并違反美國芯片出口禁令來建立其模型?!拔覀冃枰V箮椭麄?。Meta 的開放平臺(開源模型Llama)讓 DeepSeek 依賴它。他們購買了大
19、量英偉達的芯片,并找到了自己的方法,推動了他們的 DeepSeek 模型。這種情況必須結束?!泵绹虅詹抗I與安全局BIS啟動對新加坡芯片轉口貿易調查,核查HS8542類目芯片是否違規流向DeepSeek,擬議對華禁售H20芯片 美國國會、得州、NASA、美國海軍、美國國防部已禁止使用 deepseek。Anthropic CEO達里奧阿莫迪:對于 DeepSeek 的崛起,美國應該加強管制美國上升到影響國家安全,擬進一步收緊對華芯片政策2025 年 1 月 29 日,美國參議員 Josh Hawley 提出 2025年美國與中國人工智能能力脫鉤法案,旨在全面切斷中美在人工智能(AI)領域的技
20、術合作、資本流動,以遏制中國在AI領域的競爭力,保護美國技術優勢 AI技術與知識產權流動禁令:法案禁止從中國進口或向中國出口任何與AI相關的技術或知識產權,包括芯片(GPU、CPU等)、存儲設備、操作系統、云計算服務等核心硬件和軟件,以及版權、專利、商業秘密等知識產權。AI研發合作全面禁止:美國公民、綠卡持有者及機構不得在中國境內從事AI研發,也不得與中國的“受關注實體”(包括高校、企業、政府機構等)及其海外子公司合作。對華AI投資徹底切斷:禁止美國個人或機構投資中國AI企業的公開股票和證券,防止資金間接支持中國AI發展。處罰措施:刑事處罰:個人最高罰款100萬美元、監禁20年;企業罰款1億美
21、元,并取消聯邦合同及許可證。民事賠償:違規者需支付三倍損失賠償及訴訟費用,并可能被禁止獲得聯邦資助5年。驅逐出境:違者可能被驅逐出境(非美國公民)或面臨高額罰款 針對DeepSeek的特別禁令,使用或下載中國AI公司DeepSeek的產品將被視為犯罪,最高判20年監禁。中:突破技術封鎖,在大模型這個關鍵賽道上與美國的差距無限縮小,信心增強,科技股崛起美:發現在模型的技術創新上已經被中國追趕并部分超越,危機感和壓力陡然增加,預計會加大對華技術封鎖(更嚴格的芯片禁令等)-17-目錄Contents0203 0104 05-18-國內主流大模型公司模型阿里巴巴千問(Qwen)系列字節跳動豆包大模型百
22、度文心大模型騰訊混元大模型華為盤古大模型國內互聯網公司:公司模型聯通元景大模型電信星辰大模型移動九天大模型國內運營商:公司模型深度求索DeepSeek-V3/R1等智譜GLM系列MiniMaxMiniMax-Text-01等月之暗面Kimi大模型階躍星辰Step系列百川智能Baichuan系列零一萬物Yi系列國內大模型七小虎:公司模型OpenAIChatGPT系列GPT-4o系列o1系列o3系列GoogleGemini系列Gemma系列xAIGrok系列AnthropicClaude系列MetaLlama系列Mistral AIMistral系列Mixtral系列國外大模型:-19-國內外主流
23、大模型工具/應用工具名稱所屬公司備注DeepSeek深度求索https:/ AIhttps:/www.perplexity.ai/PikaAI圖片/視頻生成Pikahttps:/pika.art/MidJourneyAI圖片/視頻生成MidJourneyhttps:/ DiffusionAI圖片/視頻生成Stability AIhttps:/stability.ai/通用AI助手:其它類型:-20-目錄Contents0203 0104 05-21-政務熱線大模型全面上線遼寧省熱線平臺:服務80+坐席人員,工單填單時間由186s/單下降到133s/單;工單記錄完整度提升30%在熱點事件分析場景
24、:處理90余萬張工單,完成12萬個小區數據抽取,形成供水、供電、供熱等6類單位畫像熱線數據報告:圍繞投訴、求助、建議與舉報信息開展時空定位、問題萃取、顆??s放、精細診斷等多維度分析,輸出周期報告和專題報告大模型賦能政務熱線應用n 聯通數智公司聯合遼寧產互等打造政務熱線大模型,已落地遼寧、北京等多省市12345項目-22-大模型輔助政府經濟決策2023年10月,服務北京發改委面向經濟領域數據查詢及分析、報告撰寫、經濟領域知識問答等業務場景,實施經濟大模型,打造“學文件、讀數據、出觀點、快呈現”的高效AI工具,賦能經濟運行調度工作,人工智能輔助經濟決策;打造國內首個經濟數據分析智能體和區域經濟分析
25、智能體。北京發改委 AI經濟運行監測分析應用“粵經濟”全面打通了橫向30多個廳局和縱向21個地市的經濟運行相關數據,實現全省經濟發展分析”一屏總覽”;元景經濟大模型在“粵經濟”上部署實施,發揮聯通多源大數據的獨特優勢,基于全國高質量經濟語料,打造經濟垂直領域大模型,模型在查數據、問知識、做推理、快分析等經濟領域任務中都表現良好。廣東政數局 ”粵經濟“平臺n 經濟運行大模型落地北京發改委、廣東政數局等多省市項目-23-大模型賦能公安智能化n 聯通數智公司聯合北京聯通等打造元景公安大模型,在北京西城、安徽省廳等多省市視偵智能化升級項目試點應用在北京西城區公安局試點,提供以特征搜特征的大模型視覺分析
26、能力,解決小模型無法識別的復雜場景7月,該試點實驗室進展收到了公安部領導的肯定,對取得的成果進行充分肯定,希望在中國聯通元景大模型的加持下,探索視頻偵查新技術提高案件查辦效率利用以圖搜圖、以文搜圖提升檢索效率,可服務平安城市、雪亮工程、平安鄉村等場景利用以圖搜圖、以文搜圖,檢索監控內容,提升辦案效率-24-大模型賦能醫療智能應用n 聯通數智公司支撐廣東產互/醫療軍團打造多款智慧醫療應用,助力中山三院智能化升級大模型醫療應用服務平臺中山三院私域GPT應用私域GPT應用和服務平臺私域GPT應用:集醫教研管全方位智能助手于一體的應用,整合了業務文件1500+、醫學教材指南1800+、管理報表100+
27、,為醫護人員提升信息獲取效率,為精準醫療提供有力保障。大模型醫療應用服務平臺:提供模型微調、測評、推理加速等全鏈路工具箱,為醫院管理、臨床、教學、科研等工作提供新范式。-25-大模型賦能船舶設計n 聯通數智公司、上海聯通與中船海舟聯合掛牌成立聯合實驗室,探索大模型落地中船海舟船舶設計等應用場景針對大模型處理公式計算和圖表理解的不準確問題,使用5萬條增量數據對元景70B大模型微調訓練,提升基礎大模型計算的準確率;針對上萬頁造船規范知識中的復雜問題,運用元景RAG技術中級聯切分手段、自適應表格拆分與整合技術、多路檢索融合方式進行解析,提升元景大模型對相關內容的召回率。造船規范知識問答針對2D船舶設
28、計圖紙中不同標尺參數,運用元景多模態大模型進行識別,精準輸出設計參數信息,為設計師精準建模提供必要參考;面向不同船廠的設計規范、圖紙中不同類型的線材,運用元景視覺大模型進行分割檢測,有效提取船舶輪廓、不同船艙的設計要素,輸出3D建模所需的信息要素,提高設計師看圖建模的工作效率。翻模設計線條類型位置參數-26-大模型賦能國產大飛機裝備運維n 聯通數智公司支撐裝備軍團和上海產互打造大模型應用,賦能大飛機裝備運維級聯切分增強長文本召回匹配度自適應拆分增強知識理解完整性多路檢索融合增強檢索能力多樣性支持OCR解析能力支持富文本知識問答能力支持答案出處定位至原文支持統計類問答能力針對多模態裝備文檔做精準
29、查詢和智能問答,重點解決長文本、復雜表格、數字序列、OCR解析、網頁資源解析、統計類問答等挑戰并快速迭代,問答效果優于頭部競品。業界首創RAG中的富文本知識問答、來源出處定位、數據飛輪等獨有能力?;赗AG的裝備運維-27-文物活化大模型,助力國家博物館:中華文明云展在生動呈現文化內容,創新文博場館觀展體驗方面,憑借在大模型、數字人、虛擬空間建設等方面的核心優勢,對中國國家博物館古代中國展部分精品文物活化展示,以聯通元景大模型實現國博數字人線上講解和互動問答,生動呈現中華文明優秀成果。通過文物元素屬性創作,生成民族服飾;傳播與創作中華文化?;诖竽P蛣撟魃蓾h服、游戲、卡牌等數字文創產品,并實
30、現自定義換臉,支持商業化互動內容與應用。文創大模型,助力外文局/文聯發展數字文創產業大模型賦能文博文創n 聯通數智公司聯合在線公司等團隊打造元景文博文創大模型,助力國博、外文局等文物創新應用-28-DS應用落地同樣面臨挑戰DS優勢在6000億級語言大模型,在R1版驚艷的推理效果,在應用側落地仍需要多模型組合、多外掛工具,以及大量工程化配合C端AI應用需要通才,需要百曉生B端應用需要專才,需要超高性價比的產線工人DS很好糾結各應用需要一個超強大腦需求各單位應用DS落地需要工程化套殼1、安全監管增強+灌入企業價值觀2、灌入企業獨有數據3、推理算力消耗、效果等方面優化.多模型協同,與外掛AI工具1、
31、多模態、語音、視覺模型聯動2、掛RAG知識庫、聯網搜索優化等3、接入智能體平臺.B端生產場景多數重復使用模型某一重復能力,大量百億級參數模型即可適用DS-V3/R1滿血版推理需16-32張910B,LORA微調需512張910B。大量客戶無支持微調的算力。單任務算力消耗與百億級參數模型不在同一量級DS 最驚艷的R1版,一次推理多在10-20秒,更適合代碼、數學、復雜規劃等場景,很難響應B端高實時業務應用場景讓DS高效學會私域知識,尚未明顯突破,利用DS 蒸餾得到百億參數模型,對于從頭預訓練模型優勢還有待觀測-29-目錄Contents0203 0104 05-30-認識大模型的局限性幻覺問題知
32、識實時更新能力差偏見、隱私與安全算力消耗仍然很高-31-認識大模型的局限性:幻覺n 什么是大模型的幻覺?生成式語言模型在生成文本或者回答問題時,產生與事實不符或者邏輯錯誤的內容,即“一本正經地胡說八道”示例1:一篇根本不存在的參考文獻(右圖)n 大模型幻覺產生的原因目前的大模型結構和訓練機制:基于概率的生成模型,本質上沒有理解自己所學習的內容缺乏對真實世界的有效建模方式和全息感知能力訓練數據的局限性:數據質量、重要數據的缺失、不同類型數據的比例n 如何應對(用戶角度)建議1:建立“大模型結果不一定可信”的認知,根據自己的需要,對于模型的輸出進行不同層次的驗證(享受便利,控制風險)建議2:通過大
33、量使用而加深對一款大模型能力邊界的理解:知道什么情況下模型輸出更可靠,什么情況下更容易出現幻覺-32-認識大模型的局限性:算力消耗大n 模型訓練:算力消耗大大模型龐大的參數量:通常包含數十億到數千億個參數訓練數據:通常包含數萬億到十幾萬億token訓練時間:通常幾個月n 模型推理:算力消耗大,實時性差,支持的并發低大模型龐大的參數量:通常包含數十億到數千億個參數當前神經網絡推理方式的特點:大量的矩陣乘法操作Transformer推理階段的“按token依次輸出”機制:生成每個token的算力和時間消耗*token數用戶可感知的結果:DeepSeek投入大量算力提供服務,仍然頻繁出現“服務器繁忙
34、”;硅基流動等部署DeepSeek模型服務的第三方廠商亦無法有效承接流量l 建議3:學會接受大模型的輸出速度,效果越好的模型,速度可能越慢-33-認識大模型的局限性:知識實時更新能力差n 實時知識更新 必要性:引入新知識,保證與時俱進 大模型參數量大,知識更新速度慢,無法實時將最新事件、社會動態、研究成果加入到模型 輕量級的知識更新方法不能保證效果 DeepSeek最新版模型的知識截止日期是2024年7月(7個月前)n 緩解手段:聯網搜索+檢索增強生成(RAG)不改變模型,在外部建立索引,嚴格意義上不屬于模型更新的范疇 建議4:對于時效性較強的問題,確保AI助手的聯網搜索功能是開啟的-34-認
35、識大模型的局限性:偏見、隱私與安全n 偏見大模型的輸出結果可能包含性別、種族、年齡、價值觀、文化等偏見核心原因:訓練數據中包含了偏見信息(比如西方的數據中反映西方價值觀的信息占比更大)n 隱私與安全難以避免生成有害內容:可能會輸出虛假信息、臟黃反信息、宣揚暴力和仇恨的內容等安全評估與防范難度大:大模型結構復雜、參數量眾多、可解釋性差,給安全評估和防范帶來了挑戰易受到有毒數據的攻擊:多項研究表明,少量的有毒數據就可以顯著提高模型輸出錯誤或有害內容的可能性l 建議5:問大模型的問題不要涉及政治敏感、黃賭毒、暴力、歧視等(有法律風險和被封禁的風險)l 建議6:問大模型的問題中不要包含國家機密或者機構的商業秘密(有信息泄露風險和法律風險)-35-認識大模型的優勢和特色l 建議7:熟悉大模型的回復特點,掌握提問技巧(提示詞技巧),激發模型的創造力謝謝!