近年來,人工智慧(AI)技術突飛猛進,應用範圍不斷擴大,但隨之而來的倫理、社會及安全問題也日益凸顯。為應對這些挑戰,歐盟委員會於近日正式發布《人工智慧法案》(AI Act),並公布詳細指南,針對AI在歐盟市場上的投放、使用等行為進行全面規範,嚴格禁止一系列被認為具有「不可接受風險」的AI應用內容。
《人工智慧法案》:全球首部AI監管法規
《人工智慧法案》是全球首部全面性的人工智慧監管法規,旨在建立一個安全、可靠和可信賴的AI生態系統。該法案採用基於風險的框架,根據AI應用風險等級,設定不同的監管要求。其中,對於被認為具有「不可接受風險」的AI應用,則予以全面禁止。
為確保《人工智慧法案》有效實施,歐盟委員會同時發布了《歐盟委員會關於人工智慧法案中禁止的人工智慧實踐指南》,詳細列出法案禁止的各類AI行為,並提供具體案例和解釋,協助開發者和相關機構更好地理解和遵守法規。
七大類AI應用內容被列入黑名單
根據《人工智慧法案》及指南,以下七大類AI應用內容被明確禁止:
-
有害操縱、欺騙和剝削: 禁止利用潛意識、故意操縱或欺騙性技術扭曲人們的行為並造成重大傷害,以及利用年齡、殘疾或特定社會經濟狀況的弱點進行剝削。例如,使用潛意識信息影響消費者購買決策,或針對老年人認知弱點進行詐騙的AI系統。
-
社會評分: 禁止使用AI系統基於社會行為或個人特徵對自然人或群體進行評估或分類,且該評分導致在不相關社會背景下的不利對待,或與社會行為嚴重程度不相稱的不公平對待。例如,稅務部門使用AI工具根據不相關數據挑選納稅人進行檢查。
-
個人犯罪風險評估和預測: 禁止AI系統僅基於個人畫像或個性特徵評估或預測一個人犯罪的風險,但用於支持基於客觀和可核實事實的人類評估的AI系統除外。例如,僅依據個人的年齡、國籍等特徵預測其犯罪風險的AI系統。
-
無針對性的面部圖像抓取: 禁止通過從互聯網或閉路電視錄像中無針對性地抓取面部圖像來創建或擴展面部識別數據庫,以保護個人隱私和數據保護權,避免人們失去匿名性。例如,某面部識別軟件公司從社交媒體上無針對性地收集面部圖像的行為。
-
情感識別: 禁止在工作場所和教育機構使用AI系統推斷人的情感,除非是出於醫療或安全原因。例如,呼叫中心使用攝像頭和語音識別系統跟踪員工情緒,或教育機構使用相關系統監測學生情緒的行為。
-
生物特徵分類: 禁止使用生物特徵分類系統,基於個人的生物特徵數據推斷其種族、政治觀點、工會會員身份、宗教或哲學信仰、性生活或性取向,但對合法獲取的生物特徵數據集進行標記、過濾或分類(如用於執法目的)的情況除外。例如,通過分析社交媒體照片中的生物特徵數據來推斷用戶政治取向的AI系統。
-
實時遠程生物識別: 禁止在公共場所使用實時遠程生物識別(RBI)系統用於執法目的,但在特定的有限例外情況下,如搜尋特定犯罪的受害者、預防嚴重威脅或識別特定犯罪的嫌疑人等,且滿足嚴格條件和保障措施時可以使用。例如,在沒有滿足相關例外條件下,警察使用實時面部識別技術識別商店扒手的行為。
違規者將面臨巨額罰款
違反《人工智慧法案》禁令者,將面臨巨額罰款,最高可達全球營業額的7%,或3500萬歐元,以較高者為準。《人工智慧法案》是全球首部全面監管AI的法規,具有里程碑式的意義。展現歐盟在AI監管方面的決心和力度。該法案實施將有助於建立安全、公平、可信賴的AI生態系統,為人類社會發展帶來更多福祉。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!