畢馬威(KPMG)發布了《人工智能治理的未來形態》。
報告指出,在世界各地的司法管轄區,有關數據和人工智能治理的新政策舉措和條例標志著自我監管的結束和新監督的興起。隨著監管環境繼續以傳統的速度發展,領先的組織正在積極主動地解決道德和治理問題,而不是等待對其強制執行要求。
以下國家和司法管轄區的全球人工智能法規

雖然人工智能監管是全面和可執行的,但短期內可能不會出現。在相對成熟的經濟體中,標準化的人工智能治理框架和共同的人工智能原則有望在2到3年內實現。這意味著組織在開始人工智能之旅時,應該積極主動地考慮獨特的治理和風險影響,并幫助形成這些框架和原則。
在監管機構沒有明確指示的情況下,組織可以采取以下六個戰術步驟來準備監管的發展:
1.制定人工智能原則、政策和設計標準,并在一個鼓勵創新、靈活性和信任的環境中建立控制,同時識別與人工智能相關的獨特風險。此外,了解AI在組織中的足跡,以便清點能力和用例。
2.在整個人工智能開發生命周期中設計、實施和操作端到端人工智能治理和操作模型,包括策略、構建、培訓、評估、部署、操作和監控人工智能??紤]建立獨立的治理委員會和理事會的必要性,以解決與AI和數據相關的獨特風險和復雜性。
3.評估當前的治理和風險框架,并進行差距分析,以確定需要解決的機會和領域。
4.設計一個跨職能的治理委員會和框架,通過指導方針、模板、工具和加速器提供人工智能解決方案和創新,以快速而負責任地提供人工智能解決方案。
5.集成一個風險管理框架,以確定關鍵業務算法并確定其優先級,并結合一個敏捷的風險緩解策略,以解決設計和操作過程中的網絡安全、完整性、公平性和恢復性問題
6.設計和建立標準,以保持對算法的持續控制,而不扼殺創新和靈活性??紤]投資于新功能的需求,以通過AI工具實現有效的治理和風險管理。
報告總結
未來幾年,Al將對商業和社會產生巨大變革,而各公司推動的創新將會以前所未有的速度和規模塑造這個世界。這也帶來了巨大的責任,許多政府正在參與和合作,以更好地了解Al可能產生的影響。隨著監管者繼續沿著這條道路前進,他們起草的法規可能會試圖在廣泛的行業和用例中影響Al的創新和應用循環。
積極制定和實施自己的公司治理政策和現在的原則——那些建立信任、顯示透明度和高道德標準的原則——可以幫助政府制定區域和全球監管,并在監管頒布時更好地取得成功。
文本由@云閑 原創發布于三個皮匠報告網站,未經授權禁止轉載。
數據來源:《畢馬威(KPMG):人工智能治理的未來形態》。