南都數字經濟研究中心&清華大學:2024算法與AI大模型的用戶認知調研報告(45頁).pdf

編號:186772 PDF  DOCX 45頁 17.79MB 下載積分:VIP專享
下載報告請您先登錄!

南都數字經濟研究中心&清華大學:2024算法與AI大模型的用戶認知調研報告(45頁).pdf

1、研究團隊介紹 課題負責人許可對外經貿大學數字經濟與法律創新中心主任程華中國人民大學數字經濟研究中心執行主任課題組成員杜函聰、范孟月、齊葦杭、尹江陵、盧侃、謝專、王炳浩對外經濟貿易大學數字經濟與法律創新研究中心,旨在以前瞻視野和探索精神,跨學科、多維度地研究數字經濟法律規律,凝聚各界共識,推動制度變革,從而為我國數字經濟發展和數字中國的建立貢獻力量?!皵底纸洕c法律創新研究中心”由多家知名企事業機構擔任理事單位,中國人民大學信息法中心主任張新寶教授和中國法學會網絡和信息法學研究會常務副會長周漢華研究員擔任學術委員會聯席主席,匯聚經濟學、法學、金融學等多學科的研究人員,共同造就國內外一流的數字經濟

2、法律研究中心。中國人民大學數字經濟研究中心(Center for Digital Economy Research,Renmin University of China)是中國人民大學經濟學院主辦的研究機構。宗旨是跟蹤、研究數字經濟理論和實踐的發展前沿。中心致力于通過原創研究、深度調研、論壇講座、案例研究、企業與國際合作等一系列活動,來打造一流的數字經濟學術交流平臺。螞蟻集團研究院是螞蟻集團的專業研究部門,從事宏觀經濟、監管政策、公司戰略和學術理論研究,覆蓋數字支付、數字金融、數字科技、ESG_、數據與平臺治理、算法與科技倫理、宏觀經濟等研究領域。通過開展客觀、扎實和深入的研究工作,為公司戰略

3、決策提供支持,為政府部門公共政策提供參考和研究服務,并通過研究開放平臺的搭建,為國內外學術研究和政策研究提供數據、案例等支持。消費者對于 AI 大模型和算法的認知水平是影響人工智能行業發展的重要因素,認知程度和使用態度的變化在一定程度影響著人工智能技術的商業化應用速度,從而對我國數字經濟發展、數字中國建設產生影響。2024 年 8 月,我們在全國范圍內發放了面向消費者的調查問卷,試圖了解目前我國消費者關于 AI 大模型以及算法的認知情況。課題組通過支付寶渠道向用戶發放調查問卷,一共回收了 8030 份有效問卷?;谶@些數據,我們得到了如下的結論。一、關于AI大模型的認知在基礎認知層面,消費者對

4、 AI 大模型的認識和使用尚未普及,對其內部運作機制也缺乏了解,與此同時,對于 AI 大模型和算法的拒絕使用權以及可解釋性,訴求比較強烈。另一方面,數據還反映出 AI 大模型正逐步融入人們的學習、工作和日常生活之中,其實用性得到了用戶的廣泛認可。在AI大模型的應用方面,消費者持有普遍積極的正向態度,超過半數的受訪者選擇了進步、創新、高效和便利等具有正向評價的詞匯。在與 AI 大模型的關系上,人們期待更深層次的互動,不僅能夠充當工具,還能夠進一步成為伙伴關系。但對于 AI 大模型的普及應用,多數人支持不同領域需進行區別對待。關于 AI 大模型的風險和問題,人們普遍認同 AI 大模型存在風險,但多

5、數人認為風險在可控范圍內。人們對 AI 大模型的具體風險感知是多維的,涵蓋了就業、隱私、歧視和政府監管等多個方面,其中超過半數的受訪者擔心 AI 不受控制地搜集個人信息以及對人類就業崗位的替代。消費者對目前的AI大模型性能滿意度不高,存在一定數據隱私和安全帶來的挑戰,以及生產結果不夠令人滿意。面對 AI 大模型的風險,公眾傾向于采取積極主動的應對措施避免可能受到的權益損害。在向 摘要 ABSTRACT監管機構和企業進行反饋的同時,自身也會采取主動學習及自我保護等行為。公眾普遍認為,為了降低 AI 大模型的風險,必須采取全面而多元的策略。二、關于算法認知的變化我們對 2022 年問卷和 2024

6、 年問卷中關于算法認知的問題進行了對比分析,發現:在算法透明方面,消費者對算法的認知水平有明顯提高,對基于個人信息標簽的算法推薦,接受程度有所提高。在算法安全方面,關于算法對消費者權益造成損害的風險感知,盡管整體評價仍偏負面,但這兩年有明顯的減弱趨勢;面對算法可能帶來的不利影響,消費者主動的保護意識和能力有所增強。在算法公平方面,消費者認為存在一些信息扭曲現象,但評價有所好轉;算法差別定價行為在整體上有所好轉。在算法向善方面,對于算法自動推薦信息流,正向評價的消費者比例有所提高;受訪者普遍認為平臺在人性化設計方面有所進步。目錄 CONTENTS 一、前言 011.1背景 021.2問卷設計理念

7、 03 二、樣本的基本特征 042.1調查對象的性別、年齡和區域分布 042.2調查對象的學歷、職業和收入分布 05 三、消費者對AI大模型的認知和態度 063.1用戶對算法和AI大模型的基本認知 063.2用戶對使用AI大模型的態度 083.3用戶對AI大模型風險的認知 103.4針對AI大模型風險的用戶策略 12 四、與國際社會的對比 154.1關于青少年對人工智能感知的對比 154.2關于消費者對生成式AI的認知和態度的對比 18 五、消費者對算法認知的變化 235.1關于算法透明 235.2關于算法安全 255.3關于算法公平 265.4關于算法向善 27 附件 29附件1:關于算法與

8、AI大模型消費者認知的調查問卷 29附件2:聯合國針對青少年對AI看法的問卷 36 一、前言在線上世界,企業通過算法嵌入向消費者提供服務幾年前就成為一種常態。2022 年 ChatGPT問世所引發的AI大模型熱潮,又使生成式人工智能也成為消費者線上生活和工作中的一種普遍存在。網信辦數據顯示,截至 2024 年 7 月 30 日,全國范圍內已備案 AI 大模型數量 197 個,其中 70%是通用大模型,注冊登記的用戶數量超過 6 億。算法是解決某個問題的方法和步驟的描述,目前常被提到的算法其實是指智能算法,是利用了大數據、人工智能等數字技術構造出來的計算方法,可針對特定問題提供較好的解決方案。人

9、工智能(Artificial Intelligence,簡稱 AI)是計算機科學的一個分支,是指通過計算機程序或機器來模擬、實現人類智能的技術和方法,使計算機具有感知、理解、判斷、推理、學習、識別、生成、交互等類人智能的能力,從而能夠執行各種任務。算法和人工智能作為一種顛覆性技術,已逐步滲透到大眾生產和生活各個領域。例如,在自動駕駛領域,通過計算機視覺、深度學習等算法,車輛能夠在復雜環境中安全行駛;在醫療健康領域,人工智能通過分析醫療圖像、患者數據等輔助醫生進行疾病預測、診斷和治療方案優化;在金融服務領域,人工智能被用于風險評估、投資決策、欺詐檢測等,以提高金融服務的效率和安全性;在工業制造領

10、域,人工智能通過機器學習和自動化技術優化生產流程、提高生產效率和質量。雖然,算法和人工智能的應用對生產效率和社會福利的貢獻有目共睹,但另一方面,像人類歷史上所有新技術的發明和使用一樣,用戶也對算法應用和AI大模型可能帶來的風險表示擔心。例如,擔心過度搜集數據導致個人隱私安全受到威脅,AI 普及導致的失業問題和社會不穩定,以及 AI 發展引起的倫理道德方面的擔憂等。算法和人工智能的本質是一種工具,工具本身不具備思想和價值判斷,使用算法和人工智能的人和企業才是改變世界的主體,而算法和人工智能的廣泛應用在提升生產力和革新生產方式的同時,也在不斷重構生產關系,讓以人為中心的工具主義逐步轉向人機協同的共

11、生關系。因此如何讓算法和人工智能造福人類、同時又避免算法和人工智能帶來的風險,對算法和人工智能服務提供監管的主體才是關鍵。2023 年 8 月 15 日,國家互聯網信息辦公室、國家發展和改革委員會、教育部、科學技術部、工業和信息化部、公安部、國家廣播電視總局共同發布的生成式人工智能服務管理 01 暫行辦法正式實施,這是我國首個針對生成式人工智能的規范性政策,為促進算法和人工智能生態健康發展提供了制度保障。1.1背景在科技日新月異的時代背景下,算法與人工智能(AI)作為數字時代的核心驅動力,正以前所未有的速度滲透并重塑著社會的各個領域,從日常生活服務到高精尖科技研發,其影響力日益顯著。2022

12、年,我們開展了一項關于用戶對算法認知與評價的問卷調查,分析我國消費者對企業算法使用的認知和評價。時至今日,隨著技術的不斷進步與創新,算法與 AI 技術已邁入新的發展階段,展現出更加豐富的功能與應用潛力。為了準確把握這一技術變革過程中用戶認知與態度的動態變化,以及深入了解用戶對新興事物人工智能的整體認知與看法,我們決定再次發起一項針對性的問卷調查。本次調查旨在通過對比分析,探究過去兩年間用戶在算法認知方面的深化程度、態度轉變的軌跡,以及對于人工智能使用的認知現狀與評價。本課題對算法和人工智能的調研,著重于從消費者的認知層面以及應用感知維度展開,這樣做的原因有以下三個。第一,人工智能的不當使用導致

13、消費者權益被侵害的問題受到普遍關注。這具體表現為數據過度采集、隱私泄露、知識產權和倫理道德問題等方面。消費者對自身權益是否受到侵害、在多大程度受到侵害這一問題最有發言權。本課題希望通過消費者問卷調查,了解用戶的真實感受。第二,用戶對算法和人工智能的認知水平影響著其個人福利,需要了解消費者整體的算法和人工智能素養水平。一是需要了解算法應用至今,其應用的環境有沒有變化以及消費者對算法的認知是否有改變,是否在保證個人隱私的同時提供數據并享受算法帶來的便利,是否陷入網絡沉迷和“信息繭房”,是否因推薦而過度消費,是否可以利用規則爭取和維護個人權益;二是需要了解消費者對 AI 大模型的認知程度以及對使用

14、AI 大模型的態度,是否認為應該推廣使用 AI 大模型,這些在一定程度上取決于消費者自身的算法素養和人工智能素養。本課題希望通過調研了解消費者算法和人工智能素養水平,提出進行消費者教育的相應對策。第三,消費者對算法和人工智能的態度存在內在的不一致性。有研究表明,一方面,用戶在言 02 語表達上更關注使用算法提供服務時可能存在的侵犯隱私、價格歧視、倫理風險等問題;但另一方面,在行為上,為了得到更好的服務體驗和提高效率,用戶對個人信息提供、個性化推薦、AI 大模型使用等表現出較好的寬容性,并不排斥企業算法和 AI 大模型的使用。本課題希望通過問卷中不同問題的設置,尋找不一致性存在的證據,以更準確判

15、斷算法和人工智能對消費者福利的影響。1.2問卷設計理念問卷共設計了 33 個問題,包含四個部分,第一部分是關于算法方面的 13 個問題,第二部分是關于人工智能方面的 13 問題,第三部分是關于算法和人工智能權利方面的 4 個問題,第四部分是關于消費者個人基本信息的 3 個問題。問卷具體內容請參看附錄。其中一些問題與本課題組2022 年的調研是相同的,我們試圖發現消費者對算法的認知及態度是否有變化。在算法方面,主要從算法透明、算法安全、算法公平、算法向善四個維度設置了相關問題及選項。算法透明維度主要調查用戶的算法知情權以及用戶特征標簽管理,比如用戶是否清楚企業使用算法規則,算法依據用戶標簽推薦商

16、品、服務或廣告時用戶是否可以關閉算法推薦功能、選擇或刪除算法依據的個人特征標簽;算法安全維度主要調查用戶特征標簽數據搜集過程及使用過程的數據安全和個人隱私保護問題;算法公平維度主要調查用戶對企業干預信息呈現行為的感知,用戶是否認為企業應用算法進行了人為的信息扭曲,如操縱熱榜、信息屏蔽、干預排序結果以實現自我優待等行為,近幾年算法對用戶造成的影響以及“大數據殺熟”現象是否有所改善;算法向善維度主要調查近幾年企業“適老化”和“未成年人模式”等人性化設計是否有所進步,智能算法是否能滿足老年人的使用需要,是否會傳播不利于未成年人身心健康的信息、誘導未成年人沉迷網絡。在人工智能方面,一是調查用戶對人工智

17、能的認知程度,比如用戶是否了解 AI 大模型及其工作流程或工作原理;二是調查用戶對 AI 大模型的態度,比如用戶認為 AI 大模型應該在社會中扮演什么角色以及 AI 大模型是否應該在各個領域普及使用;三是調查 AI 大模型使用過程中產生的數據隱私、偏見歧視、錯誤判斷、道德決策和倫理等方面的問題。在算法和人工智能權利方面,一是調查用戶是否了解國家有關算法安全、AI 大模型安全的相關規定和公民自身所擁有的合法權利;二是調查企業是否保障用戶的算法和 AI 大模型解釋權,比如用戶是否有權利拒絕算法個性化推薦或拒絕在產品中使用 AI 大模型。03 二、樣本的基本特征2.1 調查對象的性別、年齡和區域分布

18、圖1.調查對象的性別、年齡、區域分布從性別結構看,男性占比 55.34%,女性占比為 44.66%,占比相對均勻。從年齡結構看,18 歲以下和 60 歲以上占比很低,這個結構雖然與中國互聯網用戶整體年齡結構差異較大,但相對于本課題關心的話題,這個結構是恰當的。因為 18 歲以下未成年人在線上購物、O2O 本地生活、游戲等領域受到無獨立收入及未成年保護因素的限制,不是主要的消費人口。而 60 歲以上的人口是數字生活中的弱勢群體,對電商、本地生活、線上社交等服務的接受度有限。從區域結構看,五線城市占比為 6%,相對較低,其他等級城市占比較為均勻。04 2.2調查對象的學歷、職業和收入分布圖2.調查

19、對象的學歷、職業和收入分布從學歷構成看,半數以上為本、??茖W歷,研究生及以上高學歷群體比重僅為 10%。從職業分布看,企業工作人員、機關事業單位工作人員的比重為 38.09%和 15.84%。自由職業者比重為 26.43%,比較高,這可能與自由職業者多在網上工作,回答問卷的概率較高有關。從收入分布看,調查對象 80%年收入在 20 萬元以下,其中年收入在 5 萬至 20 萬的群體占比44.96%,占比最高。05 三、消費者對AI大模型的認知和態度3.1 用戶對算法和AI大模型的基本認知第一,AI 大模型的使用尚未普及,消費者對其運作機制的認識也相對匱乏。在收集的 8030 份問卷中,有超半數的

20、受訪者完全沒有使用過 AI 大模型。針對使用過 AI 大模型的受訪者,進一步調研了他們對大模型的工作流程或工作原理的了解程度。結果顯示,僅有 10.19%左右的消費者非常了解,部分了解的人數占 57.21%,不太了解和完全不了解的人數占 30%左右。這些數據表明,AI大模型尚處于發展階段,尚未被廣大消費者廣泛接受和使用。盡管人們對AI大模型已有一定的認識,但整體上,這種認知仍較為淺顯和有限。圖3.調查對象對大模型的了解和使用情況第二,對于算法和 AI 大模型的拒絕使用權以及可解釋性,消費者訴求強烈。超 80%的受訪者認為用戶應該享有主動拒絕使用算法和 AI 大模型的權利,只有 11%的受訪者認

21、可無權拒絕使用。關于企業是否需要向用戶解釋算法和 AI 大模型,39.3%的受訪者認為需要詳盡解釋,44.7%的受訪者認為需要簡單解釋,而認為不在乎和不需要解釋的受訪者比例只有 16%。06 圖4.關于AI大模型拒絕使用權和可解釋性的訴求第三,用戶使用 AI 大模型最主要的場景是學習和工作,其次是生活場景,AI 大模型的實用性得到用戶的廣泛認可。調查結果顯示,在那些已經使用過 AI 大模型的受訪者中,分別有 57.42%、40.95%和 35.32%的受訪者在學習、工作和生活場景中應用了 AI 大模型。這一數據表明,AI 大模型在這些領域具有較高的接受度和實用性。然而,在娛樂領域,使用 AI

22、大模型的消費者比例不足 20%,這可能暗示著 AI 大模型在娛樂行業的應用潛力尚未充分展現,或者該領域的用戶對 AI 大模型的接受度相對較低。此外,高達 95%的受訪者認為 AI 大模型對他們的工作和生活起到了積極作用,其中超過半數的人認為 AI 大模型的作用極為顯著,甚至達到了不可或缺的程度。這些數據說明 AI 大模型在提升效率和便利性方面的實用價值已得到普遍認可。圖5.AI大模型的使用場景及其實用性 07 3.2用戶對使用AI大模型的態度第一,用戶對 AI 大模型持有普遍積極的第一印象。在調查受訪者對 AI 大模型的看法時,諸如高效、便捷、創新和進步等正面詞匯的使用頻率均超過了半數。相比之

23、下,如武器化、失控、威脅、欺詐和失業等負面詞匯的使用頻率大多維持在 10%左右。這些數據表明,大多數受訪者對 AI 技術持有非常積極的態度。圖6.調查對象對AI大模型的印象第二,人們期待與 AI 大模型能夠提供更深層次的互動,不僅能夠充當工具,還能夠進一步成為伙伴關系。35.5%的受訪者認為 AI 大模型對于人來說應該是工具,這表明這部分人更傾向于將AI 視為提高效率和解決問題的手段。這種看法可能源于對 AI 技術的實際應用和功能的認識。超六成的受訪者認為,AI 大模型不僅僅是一個簡單的工具,它們在人們心中還扮演著伙伴的角色。這反映了人們期待AI大模型在提供服務時更有“人情味”,希望它們能夠像

24、人類伙伴一樣提供幫助和支持。08 圖7.調查對象對人與AI大模型關系的看法第三,多數公眾認為 AI 大模型的普及策略應根據不同領域的實際情況有序推進,只有少數認為應當普及或嚴格限制。67.6%的受訪者認為在不同的領域,對 AI 大模型的應用保持不同的態度。這意味著人們認為 AI 技術在某些領域可能具有更大的應用價值和發展潛力,而在其他領域則可能存在風險或不適用的情形,所以應該區別對待;16.23%的受訪者認為應該嚴格限制 AI 大模型的使用范圍,對 AI 技術的潛在風險和負面影響保持非常謹慎的態度;12.58%的受訪者認為應該普及AI 大模型,他們可能認為 AI 技術具有廣泛的應用前景,能帶來

25、積極的社會和經濟效益,因此支持其普及。圖8.受訪者對AI大模型普及使用的看法 09 3.3用戶對AI大模型風險的認知第一,用戶認為 AI 大模型存在風險,但大多數人認為風險可控。90%左右的受訪者都認為 AI大模型是存在風險的。其中,66.2%的受訪者對 AI 大模型持謹慎樂觀態度,認為雖然存在風險,但這些風險是可以被控制和管理的;22.08%的受訪者認為 AI 大模型存在較大的風險,這表明有一部分人對 AI 的發展持擔憂態度;僅有 4.26%的受訪者對 AI 大模型的發展保持非常抵觸的態度,認為應該立即停止使用。有 4.48%的受訪者認為 AI 大模型完全沒有風險,這可能表明這部分人對AI

26、技術非常信任,或者對 AI 的了解不夠深入。這組數據提示我們,在推進 AI 技術發展的同時,也需要關注風險管理和公眾的意見,才能讓 AI 大模型未來的發展更加健康持久。圖9.調查對象對AI大模型風險的感知第二,公眾最關注 AI 大模型使用中的隱私保護和就業替代問題。公眾在使用 AI 大模型的過程中面臨多方面的挑戰,人們對 AI 大模型的風險認知呈現多元化的特點,隱私保護和信息安全是人們最關注的問題。人們在使用 AI 大模型的過程中面臨諸多問題,包括數據隱私和安全、結果的準確性和可靠性、技術易用性、信息質量和成本問題等,人們對 AI 大模型應用過程中風險的關注也涵蓋了從就業、隱私、歧視到政府監管

27、等多個方面。超半數的受訪者遇到了數據隱私和安全問題,60.09%的受訪者認為 AI 可能會不受控制地收集和處理個人信息。這說明數據保護和隱私安全是一個非常重要的議題,需要企業和開發者投入更多資源來確保用戶數據的安全。其他問題也反映了公眾不僅對于 AI 的自主性和潛在的控制力有所擔憂,而且也擔心 AI 技術的發展可能會放大現實層面的問題。10 圖10.關于受訪者對AI大模型潛在風險的感知第三,公眾認為目前 AI 大模型最大的問題是隱私保護不足和產品性能達不到個人需求。在使用 AI 大模型時,超過一半的受訪者遇到過數據隱私和安全問題,40%的受訪者表示遇到過生成結果不令人滿意的問題。此外,也有超過

28、四分之一的受訪者表示還遇到了系統成本過高、技術復雜難以學習、偏見歧視和錯誤判斷以及錯誤和無用信息等問題。這表明,目前的 AI 大模型在性能方面仍然存在較多問題,需要持續改進。圖11.受訪者AI大模型的應用中遇到的問題 11 3.4針對AI大模型風險的用戶策略第一,在個人權益保護方面,多數用戶在事前做好自我預防措施、事后向相關機構積極反饋。當自己的權益受到損害時,65.02%的受訪者會向監管機構舉報,35.45%的受訪者會向企業反饋,這顯示了用戶對法律途徑和企業的信任和依賴,希望通過正式渠道解決問題。除了尋求外部渠道的幫助,受訪者自身也采取積極的應對措施,比如注重信息和隱私安全、加強對大模型的學

29、習等。也有一部分受訪者在遇到權益損害問題時,會選擇不再使用該產品,表明了用戶對于 AI 潛在風險的擔憂。圖12.受訪者應對AI大模型帶來的權益損害采取的措施圖13.受訪者應對AI大模型問題采取的措施 12 第二,公眾普遍認為,為了降低 AI 大模型的風險,必須構建多元主體開放合作的治理機制,期待在未來實現技術創新和法律法規的協同完善。在監管層面,61.83%的受訪者認為 AI 大模型未來的發展需要完善相關法律法規;在企業層面,受訪者認為企業不僅要重視自身的監管和審查,技術創新、商業場景的突破也可能解決潛在的問題;在社會層面,59.2%的受訪者認為應該構建開放、合作、協商的多元治理機制。這些措施

30、共同構成了一個綜合性的風險管理框架,旨在確保 AI 技術的安全與可持續發展。圖14.受訪者防范AI大模型風險的認知圖15.受訪者AI未來發展的看法 13 第三,公眾對 AI 大模型安全的相關法規及自身的合法權益了解有限。僅有 17.77%的受訪者自己閱讀過 AI 大模型安全相關的法律法規,對自身享有的權利有一定的認知,48.12%的受訪者僅聽說過部分內容,17.07%的受訪者只聽說過名字,有 17.04%的受訪者甚至完全不了解我國在 AI大模型安全領域的相關立法。圖16.受訪者對AI大模型法律法規的了解情況 14 四、與國際社會的對比4.1關于青少年對人工智能感知的對比4.1.1 對比報告簡介

31、2022 年 8 月,聯合國發布一篇報告:A Future with AI Voices of Global Youth,該報告旨在了解全球青少年對人工智能的看法、態度和想法,以期為未來人類與 AI 共存的美好未來做出貢獻。該報告通過問卷調查和論文提交的方式,收集了來自 36 個國家的 254 名青少年的意見。聯合國對青少年的定義是 15 至 24 歲之間的人群。為了與國際社會進行對比,本文特選取了調研過程中的特定人群 24 歲以下青少年進行對比分析。聯合國報告的有效填寫人數為 254 人,填寫本課題組問卷的青少年人數為 1160 人。4.1.2 與國際社會的比較第一,我國青少年對人工智能(A

32、I)的認知度略高于全球平均水平。聯合國報告顯示,超過 85%的青年人意識到 AI 的存在,而本課題組調研結果顯示這一比例更高,達到 88.88%。僅有 11.12%的青少年表示對 AI 完全不了解。圖17.國內外青少年對AI感知程度的對比第二,中國青少年對 AI 工作原理的了解程度可能高于全球平均水平。聯合國報告中,76%的青少年表示不了解 AI 工作原理,而本課題組調研結果顯示,66.72%的青少年對 AI 工作原理有一定程度的了解,其中 57.43%表示部分了解,9.29%表示非常了解。15 圖18.國內外青少年對AI工作原理了解程度的對比第三,國內外青少年群體對 AI 大模型態度都相對積

33、極,并且國內青少年更少擔心就業壓力。聯合國報告指出,93.2%的受訪者對 AI 保持積極態度,其中 68%表現出非常明確的積極情緒。在本課題組的調研中,當提及 AI 大模型時,青少年聯想比例最高的五個詞匯均為積極詞匯,分別是創新、高效、便利、進步和共存。值得注意的是,失業這一關鍵負面詞匯在國際青少年群體中的提及率為 30.7%,而在中國青少年中則不到 15%。這可能表明,相較于國際社會,中國青少年對 AI 的發展和應用展現出更加樂觀和積極的態度。圖19.國內青少年對AI大模型的認知第四,隱私保護和失業風險是國內外青少年普遍關注的議題,另外國際青少年還更加關注算法偏見、技術問題和武器研發等風險。

34、聯合國報告顯示,超過 50%的青少年關注“人工智能軍事用途”16(74.3%)、“人工智能故障”(67.2%)、“依賴人工智能”(56.8%)、歧視(53.5%)、“政府控制”(51%),而國內青少年對這些風險的擔憂程度普遍在 20%30%之間。圖20.國內青少年對AI大模型具體風險的認知第五,國際青少年傾向于將AI定義為工具,國內青少年更加期待AI作為伙伴。聯合國報告顯示,47.9%的青少年更傾向于工具型機器人,而非擬人化或動物化的機器人,并普遍不希望機器人擁有個性。相比之下,本課題組的研究發現,61%的青少年希望在特定場景下與 AI 建立類似伙伴的關系,表現出對人與 AI 互動性的更高期待

35、。圖21.國內青少年人與AI大模型關系的認知 17 另外,在聯合國報告中值得關注的一點是,報告顯示,即使在高風險領域,如手術只要 AI 置于人類的管控之下,青少年對其的接受程度很高;但在一些自主決策領域,如自動化駕駛,即使技術已經比較完善,但接受程度相對較低。另一方面,在創造藝術和文化、政治決策、照顧老人和兒童等領域,年輕人認為人工智能根本不應該被使用。4.2關于消費者對生成式AI的認知和態度的對比4.2.1 對比報告簡介2024年4月24日,波士頓咨詢公司(Boston Consulting Group,下稱BCG)發布了一篇報告:Consumers Know More About AI T

36、han Business Leaders Think。內容是對 BCG2023 年全球消費者信心調查中,關于消費者對生成式 AI 的態度和認知的分析。BCG 的客戶洞察中心于 2023年 8 月至 9 月進行了這項調查,受訪者來自 21 個國家和地區的 21000 名消費者,涵蓋了各大洲各個發展階段的國家和地區,具有全球化視角。它衡量了消費者對人工智能和生成式AI的認知水平,以及各個市場消費者的使用情況和情緒。它還捕捉了消費者積極和消極情緒的原因,并探討了與在工作場所使用人工智能相關的問題。報告中特別提出了消費者對 AI 的了解遠超企業領導者的認知,并建議企業領導者在開發和部署支持人工智能的解

37、決方案時,應該理解消費者,不要低估消費者。BCG 在調查分析時以ChatGPT 為例,屬于本課題組調查聚焦的 AI 大模型,本文僅針對 BCG 披露的調查結果與本課題組的調查中相似的角度進行比較。4.2.2 與國際社會的比較第一,消費者對人工智能的認知度高于預期,新興市場對AI的認知超過成熟市場。在認知方面,BCG 的調查結果顯示中國消費者對 AI 的認知度為 86%,與本課題組的調查結果中,有接近 90%的受訪者對 AI 大模型有了解基本吻合。有趣的是,BCG 的調查結果中,中國、印度、阿聯酋和沙特阿拉伯等市場,受訪者對 AI 的認知超過 80%甚至高達 90%,而英美等發達經濟體對 AI

38、的認知度僅為 70%左右,新興經濟體對 AI 的總體認知程度超過成熟市場。18 圖22.各國對AI感知程度的對比第二,新興市場消費者對 AI 的態度更加開放。根據 BCG 的調查結果,中國、印度尼西亞和泰國對 AI 的評價更加積極,對 AI 感到興奮的比例分別為 56%、49%和 44%,感到擔憂的比例則低于 20%;而美國、英國、法國等發達經濟體的總體態度偏負面,對 AI 感到擔憂的比例在 40%左右。本課題組調查中,消費者對 AI 大模型的態度中“高效”、“進步”、“創新”等積極正面的態度的比例也遠高于“失業”、“威脅”等負面詞匯。據 BCG 報告的披露,在中國、印度、泰國 19 和菲律賓

39、等 ChatGPT 人氣較高的國家,消費者更多使用 ChatGPT 查找信息、協助研究,甚至可以將 ChatGPT 作為個人助理,廣泛應用于工作場景;相比之下,在澳大利亞、德國、英國和美國,使用 ChatGPT 最多的是“隨便玩玩”。圖23.各國對AI態度傾向的對比第三,全球范圍來看,消費者對工作場所人工智能的看法在不同的職業領域有所區分。BCG 的報告對不同職業領域中的消費者認為 AI 取代工作的威脅程度進行了區分,總體上來看,55%的受訪者認為他們在工作中不會輕易被人工智能或其他技術取代;只有 19%的人表示他們已經感到被威脅,或表達出一定的擔憂傾向。20 感到受威脅程度最高的是市場營銷和

40、通信行業,以及金融和會計行業,這些領域的工作往往是流程密集型的,可能會被自動化;而衛生保健從業人員、咨詢師和教師認為技術最不可能可以取代他們,說明從事高要求職業的人感覺非常大的威脅。本課題調查中,將“工作崗位被 AI 替代”作為受訪者關注 AI 對就業影響的指標,可以看到關注 AI 對就業影響的受訪者中企業工作人員最多,占比 38.26%,學生占比最少,為 6.37%,與BCG 得出的結論接近。圖24.各不同職業領域對AI取代工作威脅程度的對比 21 此外,BCG 的調查結果中還有對消費者對 AI 應用在工作和生活場景不同態度的呈現。43%的消費者對 AI 在生活場景中的應用持積極態度,其中

41、39%的消費者認為 AI 在改善日常生活方面有正向影響;對 AI 在工作場所的應用的態度也很積極,70%的受訪者對 AI 在工作場景的應用持積極態度,其中 60%的人認為 AI 將有助于學習和教育,55%的人認為 AI 將提高工作場所的效率。圖25.消費者對AI應用在工作和生活場景的不同態度 22 五、消費者對算法認知的變化本次調研中,關于算法的消費者認知的題目與 2022 年我們的研究是相同的。5.1關于算法透明第一,消費者對算法的認知了解水平有明顯提高。在 2024 年的調研中,約 66%的受訪者表示對企業提供互聯網服務使用算法的行為是完全清楚或比較清楚的,只有 7.21%的受訪者表示完全

42、不清楚。2022 年的調研中,這兩個比例分別是 44%和 16.9%。顯然,近兩年來消費者對互聯網服務中算法的使用有了更多的理解和認識。此外,關于是否了解企業使用算法的內容和目的的問題,2024 年有接近 60%的受訪者表示完全了解和比較了解,2022 年這個比例只有 35%。表示完全不了解的用戶比例,2021 年高達 20%,2024 年則減少到 8.53%。這表明,在多方共同努力下,算法透明度顯著提高、用戶體驗明顯改善。圖26.調查對象對算法的感知度和基本了解 23 第二,受訪者對基于個人信息標簽的算法推薦接受程度有所提高。首先,關于更加接受企業企業如何推送廣告的問題中,接受“千人千面、精

43、準推送”的受訪者比例從 25.7%增加到了29.3%,接受“根據數據大致分類,按照類別推送不同廣告”的比例也上升到 60%,希望對所有用戶推送相同廣告的受訪者比例則從 7.2%下降到了 4.5%,整體上,消費者對企業針對不同消費者推送差異性廣告的接受度是提高的。此外,關于企業根據個人特征標簽推薦商品的態度變化則比較有趣。一方面,選擇“不接受、希望關閉該功能”的受訪者比例大大下降,從 27.9%下降到 11.9%,但另一方面,選擇“依法排除某些標簽”的受訪者比例則提高了 11 個百分點,從25.8%提高到 37%。這反映出消費者接受了因人推薦商品的合理性,同時在依法保證個人隱私及利益的訴求在加強

44、。圖27.2024年基于個人信息標簽的推薦算法的接受度圖28.2022年基于個人信息標簽的推薦算法的接受度 24 5.2關于算法安全第一,消費者對于算法所造成的風險,感知程度有所減弱。關于企業使用算法對消費者權益造成損失的風險狀況,認為不存在風險的受訪者比例從 5%提高到了 10%,認為存在很高風險的受訪者比例則從 20.3%降低到了 10.5%。關于算法推薦侵犯了個人隱私這一說法,完全同意的受訪者比例從 31%降低到了 14.8%,下降趨勢非常明顯。持不太同意和完全不同意態度的受訪者比例則從 12.5%上升到 25.4%。上述數據變化明顯表明,消費者認為算法推薦的消費者權益受損的現象在減輕。

45、但同時,也必須看到,2024 年的問卷調研中,仍有超過 80%的受訪者認為存在不同程度的消費者權益受損風險,46.7%的受訪者認為個人隱私受到了不同程度的侵犯,這兩個數值的水平仍處于高位,這說明解決算法安全問題、仍然需要各界持續不斷的努力。圖29.消費者的算法風險感知對比第二,面對算法可能帶來的不利影響,消費者主動的保護意識和能力有所增強。最明顯的變化是要求關閉個性化推薦的受訪者比例大大下降,從 45.3%下降到 30%。與此同時,選擇使用搜索功能、多樣化瀏覽內容等主動性規避算法推薦不良影響的行為有所加強。這表明消費者面對算法推薦,在認知上更加成熟,行為上更加老練了。25 圖30.針對算法風險

46、的應對策略對比5.3關于算法公平第一,關于利用算法進行人為信息扭曲的現象,消費者整體評價好轉。企業利用算法進行的信息扭曲現象,包括操縱熱榜、流量造假和信息屏蔽等,這一方面,2022 年超八成的受訪者認為這種情況很多或比較多,而 2024 年這一比例下降到了近五成,特別是選擇“很多”的受訪者群體從41.2%下降到了 12.7%。圖31.對企業進行人為信息扭曲的感知對比 26 第二,消費者認為企業使用算法進行差別定價的行為整體上在好轉。認為差別定價現象減少的受訪者比例為 53.7%,認為有所加重的只有 10%,說明近年來企業差別化定價的行為有所好轉。圖32.差別定價的消費者感知變化5.4關于算法向

47、善第一,消費者對算法自動推薦的信息流,正面評價的比例有顯著提高。選擇“推送精準、節省了我獲取有用信息的時間”的受訪者合計比例從 40%上升到了 52%。相對應的,選擇“推送內容過于娛樂化、容易上癮”、“推動信息比較同質、限制了知識獲取的多元化”這兩個選項的受訪者比例從 43%下降到了 37%。這反映出幾年來算法導致的“上癮”和“信息繭房”問題,有一定改善。圖33.關于算法推薦的感知變化 27 第二,消費者普遍認為平臺在人性化設計方面,有一定的進步。2024 年的受訪者中 15%認為平臺在“適老化”、“未成年人模式”等人性化設計方面有明顯進步,53.1%的受訪者認為有一定進步,只有5.12%的受

48、訪者認為有所退步,平臺設計的人性化程度提高、是消除數字鴻溝的重要保障。圖34.關于平臺人性化設計的消費者感知 28 附件附件1:關于算法與AI大模型消費者認知的調查問卷尊敬的先生/女士:您好!算法和人工智能(AI)已經在我們的生活和工作中得到廣泛應用。從個性化推薦到最佳路線規劃,從無人駕駛、靈活定價到數據分析、醫療診斷,算法以及AL的潛力正被人類源源不斷地挖掘和利用。我們課題組試圖了解用戶對于算法和 AI 大模型的認識和看法,希望得到您的配合。本問卷搜集的數據將只用于課題研究,無任何商業目的或信息泄露的可能,非常感謝您的參與。對外經濟貿易大學數字經濟與法律創新研究中心中國人民大學數字經濟研究中

49、心聯合課題組 29 第一部分1.您是否知曉企業在提供互聯網服務時使用了算法?(如個性化推薦、靈活定價)A.完全清楚B.比較清楚C.不太清楚D.完全不清楚2.您了解企業使用算法的內容和目的嗎?A.完全了解B.比較了解C.不太了解D.完全不了解3.如果廣告不可避免,您希望企業如何推送廣告?A.千人千面,精準推送B.根據數據大致分類,按照類別推送不同廣告C.對所有人推送相同廣告D.無所謂4.若企業根據個人特征標簽(如性別、喜好、地理位置、交易和瀏覽記錄等)向您推薦商品,您的態度是?A.允許企業自主確定標簽B.希望依法排除某些標簽C.用戶自己確定標簽D.不接受,希望關閉該功能E.無所謂5.您是否認為算

50、法在向您推薦個性化的廣告、視頻、新聞時侵犯了您的個人隱私?A.完全同意B.比較同意C.一般D.不太同意E.完全不同意6.總體而言,您認為算法的應用對消費者權益造成損害的風險狀況如何?A.不存在風險B.存在一定風險C.存在很高風險D.不清楚7.為避免算法可能帶來的不利影響,您通常會?【多選】A.主動管理企業的數據收集請求,拒絕不合理的數據請求 30 B.盡可能使用企業的搜索功能,少接觸企業算法推薦的內容C.盡量多樣化瀏覽企業內容,以避免算法推薦帶來的負面效應D.關閉個性化推薦E.沒有使用上述任何做法8.您認為目前企業利用算法進行人為的信息扭曲(操縱熱榜買賣、流量造假和信息屏蔽等)情形多嗎?A.很

51、多B.比較多C.比較少D.很少9.您有過受企業推送廣告的影響而購買了不必要的產品或服務的經歷嗎?A.沒有B.很少C.經常10.依賴企業自動排序進行閱讀或觀看,您在獲取信息、知識方面的使用體驗是?A.推送精準,節省了我獲取有用信息的時間B.推送內容比較多元化,可獲得較豐富的信息C.推送內容過于娛樂化,容易上癮D.推送信息比較同質,限制了知識獲取的多元化E.一點都不智能,還不如自己找11.你認為近幾年算法對自己造成的不良影響是否有減輕?A.有所減輕B.一般,無明顯變化C.有所加重D.不清楚12.您認為近幾年在“適老化”、“未成年人模式”等人性化設計方面是否有所進步?A.進步明顯B.有一定進步C.沒

52、有變化D.有所退步E.不清楚第二部分13.您對AI大模型(如文字生成、圖像生成、生活管家等)的了解程度是?A.完全不了解B.聽說過,但沒有用過C.偶爾使用D.經常使用 31(如果選A、B,直接跳至18題)14.您在什么方面使用了AI大模型?A.工作用(如工業機器人、智能分析)B.學習用(如大語言模型)C.生活用(如智能生活助理)D.娛樂用(如圖像繪畫技術)15.您是否了解AI大模型的工作原理?A.非常了解B.部分了解C.不太了解D.完全不了解16.您認為AI大模型的幫助大嗎?A.不可或缺B.很有幫助C.有一點幫助D.沒有幫助E.不清楚17.在使用AI大模型的過程中,您遇到過哪些問題?【最多選3

53、項】A.生成的結果不令人滿意B.數據隱私和安全問題C.偏見歧視和錯誤判斷D.技術復雜性高,難以學習和使用E.錯誤和無用信息F.系統的成本過高,難以承擔G.其他,請補充18.當提到AI大模型,您會想到什么詞?【最多選5項】A.創新B.威脅C.高效D.戰爭E.便利F.失業G.進步H.武器I.共存J.欺詐K.朋友 32 L.失控M.其他,請補充19.你認為AI大模型對人類的風險在于?【最多選3項】A.被用作武器B.人類過于依賴AIC.工作崗位被AI替代D.機器人主導世界E.不受控制地搜集和處理個人信息F.政府過度使用AI進行監管G.AI的偏見與歧視H.其他,請補充()20.為避免AI大模型應用帶來的

54、不利影響,您通常會?【最多選2項】A.盡可能減少AI大模型產品的使用B.主動學習基礎知識,增強對AI大模型的認知和理解C.注意保護個人隱私和數據安全D.其他應對措施21.您認為應該采取哪些措施以降低AI大模型可能帶來的風險?【最多選3項】A.限制AI大模型運用的空間和領域B.加大對企業的監管和處罰力度C.鼓勵技術創新以解決可能的風險D.企業建立內部倫理審查及自我監督機制E.構建全社會開放、合作、協商的多元治理機制F.其他22.您認為AI的風險有多高?A.沒有風險,完全不擔心B.有風險,但可以控制C.有比較大的風險D.風險非常大,應該立即停止使用23.您認為AI大模型對于人應該保持什么樣的地位?

55、A.工具B.伙伴C.兩者兼具D.不清楚24.您認為AI大模型是否應該在各個領域普及使用?A.應該普及B.不同領域區別對待C.應該嚴格限制使用范圍 33 25.你認為AI大模型在未來的發展中,最應該關注的問題是什么?【最多選3項】A.技術的創新和突破B.商業應用場景的拓展C.法律法規的完善D.倫理道德的討論E.社會接受度的提高F.消費者數字素養的提升G.其他第三部分26.您是否了解國家有關算法安全、AI大模型安全的相關規定和公民自身所擁有的合法權利?(如中華人民共和國數據安全法、中華人民共和國個人信息保護法、互聯網信息服務算法推薦管理規定、生成式人工智能服務管理暫行辦法等)A.親自閱讀過B.聽說

56、過部分內容C.只聽說過名字D.不了解27.您認為企業需要向用戶解釋算法和AI大模型的原理嗎?A.需要詳盡解釋B.需要簡單解釋C.不需要解釋28.您認為用戶是否應當有權利拒絕算法個性化推薦,或拒絕使用AI大模型?A.有權拒絕B.無權拒絕C.無所謂29.算法或AI大模型產品侵害了您的權益時您會?【最多選2項】A.向企業反饋B.向監管機構舉報C.不再使用該產品D.沒采取過行動第四部分30.您的學歷是?A.高中及以下B.??艭.本科 34 D.研究生及以上E.不便透露31.您的職業是?A.學生B.機關和事業單位工作人員C.企業工作人員D.自由職業者E.其他32.您的年收入是?A.2萬以下B.2-5萬C

57、.6-20萬D.21-50萬E.50萬以上F.不便透露 35 附件2:聯合國針對青少年對AI看法的問卷About AIQ1.Have you ever heard of Artificial Intelligence(AI)?I have never heard of it(skip to Question 4)Ive heard about it,but I dont know what it means I know what it means but I have not used it I have used itQ2.Do you understand how AI works?I

58、dont know what it does or how it works I know what it does,but I dont know how it works I know a little bit about how it works I know a lot about how it worksQ3.Do you see AI as something positive or negative?(1=very negative,2=a bit negative,3=a bit positive,4=very positive)Q4.Which words come to y

59、our mind when you think about AI?(choose up to 5 words)Threat Hope Danger Violence Unemployment Safety Future Convenience Innovation Co-existence Friend None of these wordsQ5.How often do you see AI around you?Never Once a month Once a week Once a day Multiple times a dayQ6.How much do you agree wit

60、h the following?(rate from 1=disagree 4=agree)I search for information about AI(e.g.,programming,new AI services)36 I study AI through the internet,books or classes.I trust AI.I see Al as my friend or a family member(e.g.,Siri,Alexa).I think AI or robots can be my best friends.I want to keep my robo

61、t even though I buy a new one as I feel sad if I throw it away.I want to use AI in order to learn languages,mathematics,etc.at home.I want to play games with AI in order to increase my skills.I want to collaborate with AI(e.g.,playing games,creating arts).I think human should be critical against any

62、 decision which is made by AI.I want to create new AI or robots in collaboration with other people around the world.I want to discuss AI use and regulation with other people around the world.I want to create a world where humans and AI live together.OPPORTUNITIES AND RISKS OF AIQ7.For the following

63、activities,do you prefer AI to do it,or human?Or AI and human working together?(choose one out of three:AI,Human,Together)Doing manual labor in factories(robots with AI)Housekeeping Childcare Care for elderly people Teaching Assessing students(e.g.,grading tests)Political decision making Surveillanc

64、e(helping the government or police)Surgery Inventing new medicine Driving cars Delivery(by drone,robots)Work as a salesperson(e.g.self driving cars or robots)The use of AI in weapons Creating Art and Culture(e.g.music,paintings,novels etc.)Q8.How serious do you think the risks of AI are?Not so serio

65、us-I dont worry about them The risks are serious,but they can be controlled Very serious We must stop using AI now!Q9.What do you think is the biggest risk of AI?(choose as many as you want)Malfunctioning of AI(e.g.self driving cars or robots)The use of AI in weapons 37 Humans depending too much on

66、AI Humans losing their jobs to AI The unfair distribution of AI among countries Robots taking over the world Collecting and processing personal data without human control Government regulating people through AI Unfair judgements and discrimination by AIQ10.Which of the following should AI never be a

67、llowed to do?(choose as many as you want)Select the best candidate for a job(AI in recruitment)Teach children Care for elderly people Nursing and Medical care(e.g.surgery)Automatically make medical decisions Kill people Create new AI that is even more powerful Have the same rights as humansQ11.How w

68、ould you see yourself living in a world that is highly automated,where AI is powering most things around you?Great!-I want to use AI in order to make my dreams come true.It is OK.I see it as unavoidable.It doesnt bother me.It would scare me.Who knows what AI will decide to do.It makes me sad I prefe

69、r dealing with humans.Q12.If you had your personal AI powered robot,what kind of robots do you want?(rate from 1=like 4=dont like)I want to have the shape of robots as human like(humanoid)I want to have the shape of robots as animal likeI want to have the shape of robots as nonorganic machineI want

70、a robot to have human heartI want a robot to have a personality(a“self”)and behave in unpredictable ways,like humansQ13.What kind of application of AI would you want for yourself?(choose as many as you want)I want it to help with cleaning or cooking.I want it to help with my homework.I want it to be

71、 my career advisor.I want to implant it in my body to monitor my health.I want AI implanted in my body to make me smarter.38 I want an AI chatbot to talk to whenever you feel like it.I want it to entertain me chat with me,play music,cheer me up.I want it to be my friend.I want it to be my counselor

72、that listens to my worries.I want it to be my communication assistant.Q14.“Suppose in the future we all have AI and robots to do most of the work for us(including housework etc.).You will have lots of free time!What would you want to do?(choose up to 3 answers)Eating,sleeping,playing and anything I

73、feel like,but not work.Learn“technical”skills to use AI effectively in order to make my dream comes true.Learn“uniquely human”skills which AI cannot do.Connect with other humans via social networks and become popular.Spend time with my family.Spend time with my friends and colleagues.Spend time for

74、my local community and country.Spend time for global communities to solve such global issues as climate change,racism etc.in collaboration with people transnationally.I would not know what to do with my life.I would be depressed,because I would feel I am useless if I didnt need to work.I have no idea.39

友情提示

1、下載報告失敗解決辦法
2、PDF文件下載后,可能會被瀏覽器默認打開,此種情況可以點擊瀏覽器菜單,保存網頁到桌面,就可以正常下載了。
3、本站不支持迅雷下載,請使用電腦自帶的IE瀏覽器,或者360瀏覽器、谷歌瀏覽器下載即可。
4、本站報告下載后的文檔和圖紙-無水印,預覽文檔經過壓縮,下載后原文更清晰。

本文(南都數字經濟研究中心&清華大學:2024算法與AI大模型的用戶認知調研報告(45頁).pdf)為本站 (海平線) 主動上傳,三個皮匠報告文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對上載內容本身不做任何修改或編輯。 若此文所含內容侵犯了您的版權或隱私,請立即通知三個皮匠報告文庫(點擊聯系客服),我們立即給予刪除!

溫馨提示:如果因為網速或其他原因下載失敗請重新下載,重復下載不扣分。
客服
商務合作
小程序
服務號
折疊
午夜网日韩中文字幕,日韩Av中文字幕久久,亚洲中文字幕在线一区二区,最新中文字幕在线视频网站