由於擔心資訊洩露和其他問題,軟銀、日立等日本公司已開始限制 ChatGPT 等互動式人工智慧服務在商業運作中的使用。
軟銀上月就使用 ChatGPT 和其他商業應用警告員工稱:「不要輸入公司身份資訊或機密資料。」儘管軟銀已經出規定了使用互動式人工智慧等雲端服務的指導方針,但鑑於聊天機器人最近受到的關注越來越多,這些規則依舊被反覆強調。軟銀計畫制定規則,規定哪些業務可以使用該技術,哪些應用可以被使用。
今年 3 月 1 日,ChatGPT 開發商 Open AI 允許企業付費將 ChatGPT 內建到他們的服務中。Open AI 表示,從 ChatGPT 中收集的資料不會用於提高性能,但其網站顯示,當這項服務被免費使用時,「我們可能會使用您提供的資料來改進我們的模型。在這種情況下,被輸入的資訊,例如正在開發的產品,可以用來回答其他公司的問題」。
除軟銀外,日立將考慮制定新的道德規則,以規範互動式人工智慧的使用以及資料是否被正確使用。該公司計畫完善 2021 年制定的人工智慧使用指南。
富士通上月向員工通報了有關 ChatGPT 和其他互動式人工智慧服務的法律和道德問題,包括資訊保護。該公司已經成立了一個部門來決定人工智慧的使用。2022 年 2 月,富士通成立了一個治理辦公室,來處理包含人工智慧的產品開發和商業使用中的道德問題。該公司將通過這個辦公室提醒公眾互動式人工智慧的風險。
今年 1 月,ChatGPT 在發佈僅僅兩個月後使用者就超過了 1 億。微軟上月在必應搜尋中整合 ChatGPT,推動該搜尋引擎日使用者在一個月後首次突破了 1 億人。而且,這一技術在企業運作中的應用預計也將顯著增加。然而,越來越多的人和企業使用互動式人工智慧也令人擔憂,因為該技術可能會傳播虛假資訊,引發資料洩露,導致一些公司禁止使用該技術。
日本瑞穗金融集團、三菱日聯金融集團和三井住友銀行已禁止在公司營運中使用 ChatGPT 和其他服務。瑞穗的限制措施會阻止員工從工作終端訪問該網站,目的是「防止因員工不當使用導致客戶和金融交易等重要資訊洩露」。IT 公司 NEC 也禁止員工使用 ChatGPT。
日本情報安全大學院大學研究科教授後藤厚宏 (Atsuhiro Goto) 表示:「互動式人工智慧可以在個人電腦上輕鬆使用,這讓員工變得不那麼謹慎,存在機密資料被意外輸入並在公司外部使用的風險。這些服務應該由一個專門的內部團隊進行測試,以澄清使用規則和可以輸入的資訊。」
松下控股集團公司 Panasonic Connect 在採取措施防止資料洩露等問題後,開始使用互動式人工智慧建立檔案。為了降低資料洩露的風險,該公司與軟體的聯合開發者微軟達成了一項協議,不將內容用於人工智慧培訓等次要目的。同時,員工們也被警告不要輸入個人資訊。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!