最近,OpenAI 公司宣佈了他們新一代的語言模型 GPT-4,這一消息在 AI 圈引起了不小的轟動。如此強大的語言模型,讓人們開始反思人工智慧的強大與應用。
文章目錄
隨著我們越來越依賴於機器學習模型,我們可能會逐步接受難以解釋的事實:機器學習模型之所以有效,是因為它們比我們更擅長閱讀世界。
每當一個用戶因無法理解機器學習的工作原理而發出絕望呼聲時,我們都能感受到這些模型確實有效。但是,還是不免會想問一句:為什麼?
其實這樣的經歷我們並不算陌生,就在幾年前,AlphaGO的驚天一戰,證明了AI可以打敗人類棋手、而且還「很會」的時候,當時那些世界頂級的棋手也跟我們發出了一樣的吶喊:為什麼?
他們也不懂DeepMind的「不按牌理出牌」看似毫無章法,但為什麼最後會棋高一著?
反過來想,在機器學習的幫助下,我們或許能更好地認識這個世界,找到真正的本質。但我們也需要認識到機器學習模型的局限性,以便更加謹慎地應用它們,避免對社會和人類產生負面影響。
機器學習模型是黑盒子?
機器學習系統的不透明性引起了人們對它們的可信度和偏見傾向的嚴重擔憂。但是它們確實能夠起作用的事實,可能會讓我們對世界是什麼以及我們在其中扮演什麼角色有了全新的理解。
機器學習,與傳統程式設計有著完全不同的工作方式。
傳統程式設計是我們基於固定的規則,去理解世界的集大成者。機器學習模型則懂得從樣例中學習。它們能夠跳出人類認知的模式,而總結出我們所無法理解或者應用的規律。
例如,人類的新陳代謝是一系列極其複雜的相互作用和相互依存的效應。於是,人們創建了一個能夠預測人體系統對複雜因素反應的機器學習系統,稱之為 DeepMetab。它成為醫生、研究人員、非專業人士和疑病症患者提出關於人體器官的問題、探索相關想法的地方。儘管我們無法理解它如何產生輸出結果,DeepMetab 仍然成為有關人體知識的最重要的來源。
機器學習模型的工作原理是放棄用可以被理解的規則來簡化並解釋複雜性,那麼在「它有效!」的呼聲中,我們可以感受到所有微小事物在它們的相互依存中彼此互動。而這些微小事物才是真正的本質,它們在和諧規律的宇宙音中發出嘎嘎聲。我們技術的成功正在告訴我們,世界就是一個真正的黑盒子。
在現實生活中的機器學習應用中,可能的答案數量要數以億計,需要考慮的資料量非常龐大,資料點之間的相關性非常複雜,以至於我們人類通常無法理解。但確實有關連,只是需要超級電腦的容量以及運算,才能夠看出端倪。
幸好,人類也正在進化中,看看圍棋界經過了AlphaGO那一場「屠殺」之後,現在依然新手輩出,而且也發展出許多新技術。整體來說,其實是好事,AlphaGo 顛覆了人類對圍棋的傳統觀念,打破了人類在過去低估了棋局哪部分的重要性,並展示了一些創新和驚人的棋路。也推動了圍棋的發展和進步,促使人類棋手提高自己的,並從 AlphaGo 的對局中學習和借鑒。
像是李世乭就表示,「AlphaGo 是一個非常強大和創新的對手,並感謝 AlphaGo 給他帶來的挑戰和啟發」,也說自己會繼續努力提高自己的水平。柯潔也說「AlphaGo 是一個神奇和不可思議的存在,並表示自己在與 AlphaGo 的對弈中感受到了圍棋的無限可能性,也體會到了自己的不足之處,並說自己會努力追趕 AlphaGo 的腳步」。
機器學習模型的局限性
但在此同時,我們也需要認識到機器學習模型的局限性,以避免負面影響。
機器學習模型的輸出結果往往需要人類的解釋和解讀。這需要我們瞭解模型的工作原理和資料,以及如何解釋輸出結果。如果我們無法解釋機器學習模型的輸出結果,那麼我們就無法信任它們。
另外,機器學習模型的不透明性使得它們很可能會產生明顯的偏見,因為它們以前的經驗是從歷史資料中學習得來的。如果歷史資料中存在偏見,那麼機器學習模型將自動地學習並重現這些偏見。
例如,在面試候選人時使用機器學習模型,如果歷史資料中存在性別或種族等偏見,那麼模型可能會傾向於選擇特定的候選人。
因此,我們需要更加謹慎地使用和評估機器學習模型。我們需要確保模型的訓練資料沒有偏見,並且模型本身也沒有偏見。我們需要瞭解模型的工作原理,以便解釋和解讀輸出結果。此外,我們也需要考慮機器學習模型的影響,以確保它們不會對社會和人類產生負面影響。
總之,機器學習的強大和不透明性讓我們對其應用產生了新的思考。但我們也需要更加謹慎地使用和評估機器學習模型,以便充分利用它們的優勢,並避免對社會和人類產生負面影響。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!