當前位置:首頁 > 報告詳情

美國安全與新興技術中心:2024人工智能安全與自動化偏見人機交互的風險研究報告(英文版)(34頁).pdf

上傳人: Y**** 編號:187709 2025-01-03 34頁 1.08MB

下載:
word格式文檔無特別注明外均可編輯修改,預覽文件經過壓縮,下載原文更清晰!
三個皮匠報告文庫所有資源均是客戶上傳分享,僅供網友學習交流,未經上傳用戶書面授權,請勿作商用。

相關圖表

本文主要探討了自動化偏見(automation bias)這一現象,即人類用戶過度依賴自動化系統,導致對系統輸出或建議的過度信任,即使面對矛盾信息。文章通過三個案例研究(特斯拉自動駕駛、空客和波音的設計哲學、美國陸軍和海軍的愛國者導彈系統與海軍的宙斯盾系統)分析了影響自動化偏見的三個可控因素:用戶、技術設計和組織。文章得出以下關鍵點: 1. 用戶對技術的熟悉程度和信任度會影響自動化偏見。例如,特斯拉自動駕駛事故表明,用戶對系統的誤解可能導致危險。 2. 技術設計,如用戶界面和反饋方式,也會影響自動化偏見。例如,波音737 Max事故表明,設計變更未充分告知用戶,可能導致危險。 3. 組織政策和程序也會影響自動化偏見。例如,美國陸軍和海軍對愛國者和宙斯盾系統的不同管理方式,導致不同的自動化偏見。 綜上,自動化偏見是一個復雜問題,需要從用戶、技術設計和組織層面進行干預和緩解。
自動駕駛汽車安全嗎? 飛機自動化系統如何影響飛行員? 組織政策如何塑造自動化偏見?
客服
商務合作
小程序
服務號
折疊
午夜网日韩中文字幕,日韩Av中文字幕久久,亚洲中文字幕在线一区二区,最新中文字幕在线视频网站