最近,德勤發佈了一份報告,揭示了數據隱私在生成性人工智能(GenAI)中的重要性。根據這項調查,專業人士對數據隱私的擔憂顯著上升,2023年只有22% 的人將其列爲首要關注點,而到2024年,這一比例躍升至72%。這表明,隨着技術的進步,人們對其潛在風險的認識越來越高。

問卷調查,數據報告

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

除了數據隱私,透明度和數據來源也是受關注的重點,分別有47% 和40% 的專業人士將這兩個問題列入自己的關注清單。而相比之下,只有16% 的人對工作崗位流失表示擔憂。調查顯示,員工們對 AI 技術的運作方式愈發好奇,特別是涉及敏感數據的方面。HackerOne 的一項研究也表明,近一半的安全專業人士認爲 AI 存在風險,許多人把泄露的訓練數據視爲一個重大威脅。

德勤的這份報告還提到,78% 的商業領袖將 “安全和保障” 視爲其三大倫理技術原則之一,較2023年增加了37%。可以看出,安全問題正變得日益重要。大約一半的受訪者表示,認知技術如 AI 和 GenAI 在新興技術中構成的倫理風險最大,尤其是一些高調的 AI 安全事件引發了更多的關注。例如,OpenAI 的 ChatGPT 曾因一個漏洞泄露了約1.2% ChatGPT Plus 用戶的個人數據,包括姓名、電子郵件和部分支付信息。

隨着越來越多的員工在工作中使用生成性 AI,德勤的調查顯示,內部使用這一技術的專業人士比例比去年增加了20%。不過,仍然有很多公司處於試點階段,只有12% 的受訪者表示其在廣泛使用這一技術。與此同時,決策者們希望確保在使用 AI 時不觸犯法律法規。因此,34% 的受訪者將合規性視爲建立倫理技術政策和指導方針的主要原因。

歐盟的 AI 法案於今年8月1日生效,對高風險 AI 系統設定了嚴格的要求,以確保其安全性、透明度和倫理使用。非合規的後果可能導致高達3500萬歐元的罰款或營業額的7%。許多公司,包括亞馬遜、谷歌、微軟和 OpenAI,已經簽署了歐盟 AI 公約,以提前落實法案要求,展現他們在負責任的 AI 部署方面的承諾。

劃重點:

- 🔒 數據隱私成爲2024年生成性 AI 的主要擔憂,關注從22% 躍升至72%。

- 📈78% 的商業領袖將 “安全和保障” 列爲其三大倫理技術原則之一,強調安全性的重要性。

- ⚖️ 歐盟 AI 法案的實施影響深遠,促使公司在 AI 使用上進行必要的調整與合規。