從2023年4月開始ChatGPT 社會大眾開始有機會使用強大的人工智慧(AI),但這個聊天機器人的內部運作機制仍是一個未公開的秘密。 就像最近一項新的研究顯示, Llama 2 是一款「開源」AI,他持續受到科技巨頭的壟斷與控制。
在5月時,內部人員洩露Meta公司的「Llama」模型,讓外界可以參考程式碼以及編輯相關模型的行為權重等等。同年7月,Meta推出功能更強大的模型 Llama 2,聲稱可以提供任何人下載、修改和重複使用。自此,Meta 的 Llama 系列模型成為許多公司、研究人員和AI業餘愛好者創立類似ChatGPT 功能的工具和App的基礎。
Meta發佈 Llama 2 的時候表示,「我們在世界各地擁有許多支持者,他們相信我們對當今對AI的發展...研究人員致力於該模型進行研究,結合科技領域、學術界和政策部門的人們...在經由大家的努力後我們看到Llama和開放平台的好處」
在經歷一段時間後,Meta發佈另一個模型 Llama 2 Code,該模型針對編碼進行了微調。 數十年來,「開源方法」使軟體的獲取變得更加民主、確保透明度並提高了安全性,現在似乎在AI上也是一樣
但在學術界有些學者認為,這或許還遠遠不夠,在這些AI當中仍有需多尚未被公開的黑盒子。來自卡內基梅隆大學(Carnegie Mellon University)、AI Now Institute 和 Signal Foundation的研究團隊,在一篇題為「Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI」的論文中,探討「Llama 2」和其他以某種方式「開源」的AI現實情況。
在論文中提及雖然Meta打著「開源」的口號,試圖展現友善,讓大家可以進用這些模型,但這可能將讓大家落入「陷阱」 。儘管 Llama 2 可以免費下載、修改和應用,但他仍不屬於「開源」的許可範圍內。Meta 的許可證禁止使用 Llama 2 訓練其他語言模型,如果開發者將 Llama 2 應用到每天使用者超過7億的App或網頁中,則需要向Meta申請特殊許可證。
這種程度意味 Llama 2 可以為 Meta 帶來重大的技術和戰略利益,例如當外部公司在自己的App中使用 Llama 2 模型時,Meta將可以從有益的調整中獲益。研究人員說,在普通「開源」許可下發佈的模型,如非營利組織(NGO) EleutherAI 的 GPT Neo,開放程度更高。但這些項目很難與大型公司推出的模型競爭。
因為訓練高級模型所需的資料往往是需要建立保密條款。在另一方面,建構模型所需的軟體框架通常由大公司控制,以目前業界最流行的兩個軟體框架舉例, TensorFlow 和 Pytorch 分別由Google和 Meta 維護。再者訓練大型AI模型所需的電腦運算能力也非一般開發人員或公司所能承擔,因為通常訓練一次所費不貲將近數千萬或數億美元。最後,在訓練過後的改進,模型需要大量人力去完成修正。綜上所述,就成本與開銷以及負擔能力而言,此類相關資源將被掌握在大企業的手中。
因此,研究團隊認為從目前的趨勢來看,這項數十年來最重要的AI技術,最終只會增強少數幾家大型公司 ,例如 OpenAI、微軟(Microsoft)、Meta 和Google。如果AI真的是個能改變世界的技術,他勢必會被更加廣泛得運用與普及。
論文作者之一Meredith Whittaker提及,「我們的研究結果顯示,在新科技的發展,特別指的是現在的AI發展,此種程度的『開源』將不會使大眾更加『民主化』。事實上,權力仍舊集中在少數人的手中,利用『開源』的技術來鞏固並擴大自己的權力」。
Whittaker 進一步表示,即使是最開放的AI系統,本身不能確保AI能夠帶來民主或是有意義的競爭。「開源」應該要利用法規來訂立有意義的技術整合,來取代由大型企業的壟斷與主導,特別是當人AI被運用到特定的領域例如醫療保健、金融、教育等等。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!